Облачные вычисления. Национальные и бизнес риски.

Многие наверное, задумывались, куда "катится" мир. В IT можно сказать, что катится он в "облака".
На данный момент мы можем наблюдать, взрыв технологий обработки данных.
Раньше, это была прерогатива компьютеров. Только их мощность позволяла принимать и обрабатывать данные. Однако, технологии не стоят на месте и сейчас процессор на еденицу энергии способен осуществить на несколько порядков порядков больше едениц вычислений, чем его пра-пра-дедушка всего каких то 15 - 25 лет назад.

Совсем недавно в нашу жизнь вошла виртуализация.
И хотя, технологически она была возможна с 1985 года, когда был выпущен процессор Intel 80386, реализовать ее было крайне сложно. Этот процессор имел два принципиально новых отличия от предыдущих, корректную обработку команды "неизвестная операция" и "защищенный режим" совокупность этих двух режимов позволяли процессору эмулировать практически любые процессоры, являющиеся расширением его командного набора. Но к сожалению производительность при этом падала чудовищным образом. Поэтому коммерческого применения она не нашла.
Ситуацию спустя несколько поколений, несколько разбавили эмулирующие отладчики, которые позволяли эмулировать процессор для отлаживаемой программы. Но в основном подобного рода отладчики требовались для анализа защищенного кода, который был защищен противоотладочными средствами. Также были аппаратные отладчики, фактически плата расширения, в котором и исполнялся сам отладчик, допускалась полная заморозка всех процессов в исследуемом компьютере. Применялся для отладки систем реального времени, для хакеров они были не доступны в силу своей нереально высокой цены.

Но постоянная гонка компаний Intel и Microsoft дала возможность в конечном итоге, прибегнуть к полноценной виртуализации, когда время отклика программного обеспечения в виртуализированной среде оказалось в пределах физиологически обусловленной зоны комфорта - это примерно 0,1 - 0,3 секунды. Не буду отрицать, что и до этого предпринимались попытки осуществлять виртуализацию, создавались разного рода трансляторы API, один из популярных таких интерфейсов пришедших к нам из мира Unix - это cygwin

Первый росточек виртуализации пользовательской среды был создан в виде новой тогда операционной системы Unix, которая была опубликована в виде исходных кодов в 1971 году, что дало на конец 2010 около, по самым ориентировочным подсчетам,260 диалектов Unix архитектуры (далее Unix).
Виртуализация совсем до недавнего времени была доступна лишь, на мейнфреймах, больших, производительных вычислительных комплексах, пра-прадедушкой которых была IBM System 360/370.
Фактически любой Unix уже имел псевдо виртуализированную среду в которой могли исполняться программы пользователя. Но в данном случае, вируализация эта доволно условная, в пору говорить не о виртуализации, а о разделении процессов друг от друга. Несколько подключенных пользователей к одному Unix серверу, фактически получали в свое распряжение некоторый ресурс этого сервера, не имея возможности узнать пользуются ли им другие пользователи или нет. Но и это довольно условно. Все зависит от настроек сервера.
В основном виртуализированная пользовательская среда это была вотчна мэйнфремов и специализированного ПО для них.
Ни один PC до недавнего времени не мог дотянуться до возможностей этих систем.

Когда мощность данных выросла настолько, что классических систем перестало хватать, а именно пользовательские программы в некоторых своих решениях начинали требовать ресурсы подходившие к физическим границам платформы. Была произведена попытка создать принципиально новую 64битную архитектуру. Переход к 64 битам от 32 первой закончила компания AMD. Это фактически поставило крест на "революционной" технологии IA 64, компании Intel. Революцию в виде отказа от почти 20 летнего прошлого отменила, компания AMD выпустив на рынок свой процессор с поддержкой 64 битной адресации, с решенной проблемой совместимости с 32 битным, 16 битным и 8 битным режимами работы процессора.
С этого момента классический код можно было с минимальными корректировками перекомпилировать для поддержки 64 битной адресации. В основном на такие вычислительные возможности спрос шел со стороны серверов. Их потребители - это крупные компании в машиностроении, производстве, сюда же можно отнести статистику, банковскую сферу, сферу спец. служб, науку, анимационные и киностудии, а также многие другие отрасли, где требуется много, подробно и сразу получать нужные данные в нужных срезах. Приложение этой мощности востребовано и оно будет только расти. Все это увеличивает "стоимость" простоя в случае выхода из строя платформы.

Фактически, сегодняшний вычислительный мир приходит к тем же менфреймам, но на более высоком технологическом уровне. Но не будем отвлекаться.
Для горячего резервирования нужно программное обеспечение. Начинать писать с нуля - это высокие трудозатраты на начальных этапах. Это проигрыш в конкурентной борьбе. Проще и быстрее, найти способ объеденить несколько 32 битных серверов, для которых написано гигантское количество программного обеспечения, чем заново создавать весь программный комплекс от операционной системы до компиляторов(отладчиков) под него.

Одной из первых с идеей виртуализации справилась компания VMWare, выпустив одноименный продукт, который был удобен в реализации и позволял собственно то, что подразумевалось под словом виртуализация - виртуализация аппаратной части. С некоторыми "но", под VMWare удавалось запускать Windows систем, которые многие считали эталоном требовательности по ресурсам.

На данный момент задача виртуализации решена не только на программном, но и на аппаратном уровне. Компания Intel ввела возможность поддержки виртуализрованных сред в свои процессоры, что в конечном итоге, привело к росту виртуализированной производительности и фактически к производительности приложений в невиртуализированной среде.
Стало возможно виртуализировать несколько серверов в один, где выход из строя одного сервера приводит лишь к потере мощности общей виртуализированной системы, которая обслуживает запросы пользователей.

Следующим логическим шагом, который по сути является уже некогда пройденным на заре компьютерной эры, когда ученые подключались к суперкомпьютерам для получения в свое распоряжение его мощности, становится возможность подключения к подобным комплексам.

С распространением сети интернет и наличия у подобных комплексов точек подключения становится очевидным, что все это можно использовать в коммерческих целях. Предоставляя сервис, мощность, инфраструктуру или программное обеспечение в этом комплексе, мы получаем еще один уровень абстракции, когда абстрагируется средство обработки данных, а локальное средство выполняет лишь роль клиента или если угодно, интерфейс к этому комплексу. Данные комплексы получили название "Облако". А процессы происходящие в них, облачные вычисления.

Пока облачные вычисления - на своем начальном этапе, но уже сейчас мы можем обозреть будущее этой технологии.
Вычислительные средства будут развиваться и рост их производительности будет расти. Это скажется на объемах и сложностях задач, которые будут решаться за cчет их мощности. Это естественным образом будет сказываться на требованиях к надежности и производительности.
"Облака" в силу своей архитектуры будут отличаться не виданной ранее производительностью и надежностью. Физические сервера будут прикрыты двумя абстрагирующими слоями - это слой виртуализации и слой создающий облако, работающий в виртуализированной среде.
Высокий уровень требований к облачным вычислениям, будет создавать рынок предложений по монтированию и аренде мощностей в облаке. А также удобство при работе с облачными задачами будет обуславливать лавинообразно растущий на них спрос.

Чем же хороши и чем опасны подобные среды.
Хороши конечно, своей чудовищной производительностью, не имеющей аналогов отказоустойчивостью, возможностью территориально распределенной работы по стандартизированным информационным каналам.

Плохи тем, что данные в силу выше описанных премуществ, будут часто храниться за пределами контролируемой зоны предприятия.

* Google Докуметы - система подготовки и коллективной работы над документами. Поддерживаются наиболее популярные офисные пакеты, а также наиболее популярные графические форматы, которые можно редактировать через сервис Picasa. Поддержка документов не полная, но базовый функционал реализован удобно, поэтому пользоваться им можно, если грамотно выстроить технологический процесс обновления данных.

* Microsoft + Facebook - система подготовки и коллективной работы над документами. Фактически аналог Google Документы.

* ThinkFree - работа в режиме онлайн с документами Microsoft office.

* OVI Contacts - синхронизация и онлайн редактирования контактов. Сохранение контактов, календаря, задач, записей (notes). OVI Files - хранение, редактирование синхронизация между несколькими подписчиками, включая Windows и Machintosh компьютеры. Работа с документами MS Office, Adobe PDF файлами в онлайн режиме.

* МТС: Вторая память. Сохранение фото, видео, музыки и контактов.

* Dropbox. Синхронизация файлов вне зависимости от OS или комьютера.

* ZOHO online document management - Сервис похож на Dropbox, с функциями поиска, версионинга документов, управления ими в онлайн режиме.

* Планы России на этот рынок услуг - Выступление заместителя министра связи и массовых коммуникаций Ильи Массуха, назначенный на эту должность 15 июля 2010 года.

В чем же основные угрозы ?
Прежде чем вернуться к этому вопросу, хочу сделать некоторый экскурс в историю.

Начало 1994 года.
Европейский авиационный консорциум Airbus находится в заключительной стадии переговоров с Saudi Arabian Airlines о модернизации парка самолетов. Сумма ожидаемой сделки 6 милиардов долларов (в то время расчетной европейской валютой был доллар). Сделку проталкивал примьер министр Франции Edouard Balladur, который планировал окончательно закрыть этот вопрос на встрече с королем Фадхом (Fadh) в январе 1994 года.
Таким образом интересы компаний Boeing и McDonnel Douglas оказывались ущеменными. Обе компании давно и прочно работают с правительством США. Наряду с коммерческой деятельностью компании финансируются из государственного американского бюджета, за счет размещения на их мощностях оборонных заказов.
Что же произошло в канун встречи ?
Американцы сделали утечку информации о том, что Airbus в ходе лоббирования своих интересов в Саудовской Аравии использовала механизм взяток.
В результате поднявшейся шумихи и давления на правительство, король вернулся домой с пустыми руками.
В результате контракт выиграли Боинг и МакДоннел Дуглас.

Согласно официальному отчету от 2001 года (также доступен черновой вариант), о расследовании проведенном комитетом по изучению системы перехвата Echelon, информация была добыта путем перехвата факсов и телефонных разговоров между сотрудниками Airbus, представителями "Saudi Arabian Airlines" и представителями правительства Саудовской Аравии.

Цена вопроса была 6 миллиардов долларов США. Не считая стратегического преймущества в виде технического обслуживания и упрочения имиджа компаний в арабском секторе.
Этот провал негативно отразился на Airbus, затормозив разработку новых самолетов этой компании. Таким образом американские компании получили не только экономическое преймущество, но и стратегическое, за счет снижения темпов развития конкурента.

На страницах со 103 по 106 выше упомянутого отчета есть еще примеры работы системы против европейских компаний. Это агентурная работа, перехват информационных обменов по почте, факсу, телефонным разговорам и так далее.

Еще один пример, более свежий.

Одной из причин, которая мешала США эффективно управлять военной операцией по борьбе с терроистами в Афганистане, которая началась после самолетной атаки на башни всемирного торгового центра - это практически полное отсутствие средств связи и финансовых институтов у бывших союзников-повстанцев.
Если в современном обществе, где доминируют электронные средства обмена, финансовую транзакцию можно проследить от начала и до конца (теоретически, практически этому помешает закон о банковской тайне), то схема финансирования в Афганистане радикально отличалась от привычной американцам.
Деньги перевозились людьми, а транзакции осуществлялись обыкновенными телефонными звонками через спутнковый телефон, где доверенные друг другу лица просто созванивались и сообщали друг другу, что тот-то должен отдать тому то такую то сумму, в таком то месте. Все транзакции велись на бумаге, где учитывались долги тех или иных людей.
При этом, американцы испытывали серьезный дефицит в агентах, знающих местные наречья достаточно бегло, чтобы анализировать перехваченный текст, данная система имела фантастический уровень защищенности от не только анализа, но и перехвата. Пеленг мобильного спутникового телефона в гористой местности практически исключен. Не имея собственной развитой агентурной сети, испытывая в своем арсенале дефицит в носителях языка и не способной эффективно отслеживать финансирование, американская армия оказалась на нижней границе своей эффективности.

Наступил 21 век.
Терроризм терроризмом, но основные интересы американских компаний сосредоточены на странах уже охваченных не только системой слежения Echelon, но и загадочной HAARP, которую на парламентских слушаниях в январе 1999 года "Motion for Resolution" была названа не смертельным оружием. Тем не менее за год до этого парламенсткий комитет по обороне и разоружению приглашал представителей NATO и США, чтобы получить развернутые комментарии по проекту HAARP, на который был дан отказ.
HAARP отнесен к атмосферному оружию, который предполагается, может оказывать влияние на целые регионы, через установку определенных погодных условий. Более подробно можно ознакомиться с отчетом номер A4-0005/99 Европейского парламента от 1999 года.

И хотя 21 век толко наступил, он уже принес значимые результаты.
Давайте попробуем свести в некоторую систему уже имеющиеся данные.

В 2007 году один из основателей Google Ларри Пэйдж заявил, что в компании идет работа над созданием искусственного интеллекта (ссылка).

В 2008 году проект SIRI компании SRI International, получает финансирование в размере 8,5 миллонов долларов, на развитие прикладного бизнеса. Особенностью этого проекта является то, что почти за год до публичного заявления об окончании DARPA проекта CALO (Cognitive Assistant that Learns and Organizes), Siri получает не только коммерчески адаптированный движок, но и финансирование под это.Целью проекта было создание технологии лингвистического анализа введенного или надиктованного голосом текста. Проект также анализирует и сопоставляет календари объединенных в группы людей, кореллирует и приоретизирует информацию.
SRI International, выделилась из Станфордского университета в 60х годах для коммерческого продвижения, именно она является разработчиком если не всего проекта, то его коммерческой части под названием PAL (the Personalized Assistant that Learns) личного самообучающегося ассистента. Разработка которого, согласно информации на сайте началась в 2003 году.

В 2009 году уже DARPA объявляет о завершении разработки проекта CALO (Cognitive Assistant that Learns and Organizes), системы анализа и сортировки информации, стоимость которой составила 150 миллионов долларов США.

В начале 2010 года Google выводит свою систему Google Documents на полнофункциональный уровень в котором поддерживаются все популярные форматы документов, поиск, навигачция, версионинг, распознавание документов, что совместно с сервисами хранения данных, личной и корпоративной почты, обработки графических файлов создает полную, законченную среду для ведения бизнеса.

В 2010 году в Мичиганском университете публикуются результаты по проекту создания самоорганизующейся формы "жизни". Перевод статьи "Artificial life forms evolve basic intelligence" из NewScientist можно прочесть в блоге Искуственной форме жизни удалось развить базовый интеллект.

В апреле 2010 года компания SRI International приобретается компанией Apple за 200 миллионов долларов.

В более расширенных рамках проекта I2O, разрабатывается проект Сommand Post of Future командный пост будущего, технологической частью которого является технология PAL, которая является подтехнологией CALO. В рамках этого проекта разработаны новые технологиии управления, сенсоров, обработки информации, технологии их применения такие как радар перемещения наземных целей (Ground Moving Target Indication (GMTI))" , командный пост будущего (Command Post of the Future (CPoF)) и тактическая система наземного оповещения (Tactical Ground Reporting system (TiGR))".
Целью программы является объединение наземных, воздушных, космических поставщиков информации в единую информационную систему с обучающейся системой отбора нужной участнику боевого действия информации.
iXo

Итогом объединения ожидается полностью решенная проблема "тумана войны (Fog of War)", то есть отсутствия у воюющих точной информации о дислокации противника на данный момент времени на данной территории. Сейчас у большинства войск стран эта задача частично решается разведкой, но в условиях плотной городской застройки ее эффективность довольно низка.
Демонстрацию запланированных возможностей под кодовым названием iXo (Information eXploitation Office) можно посмотреть на видеопрезентации расположенной на Google.Video пользователем ignoranceisntbliss.

Краткий обзор технологии Combat Zones that See (CTS) был освещен в документе, который был видимо, опубликован перед тендером и который в 2004 году исчез с сайта DARPA и более нигде в свободном виде не обнаруживается (мне найти не удалось), тем не менее, он попрежнему доступен на сайте интернет архива: (BAA_03-15_CTS_PIP.pdf).
Заинтересованные лица, согласно этому документу, могли более детально ознакомиться с проектом, зарегистрировавшись на Арлингтонском сайте компании Schafer "Schafercorp-ballston.com", который сейчас уже не доступен. Сайт по наполнению представлял собой типичный сайт-визитку, в ней кратко было описано, чем занимается эта компания и даны ссылки на головную компанию Schafer.Com.
Осенью 2003 года сайт редизайнится, с него пропадают ссылки на головную компанию, а к зиме 2007 года, сайт фактически перестает существовать. Головной сайт компании c тех времен практически не изменился и дает некоторую информацию о разработках. Компания занимается высокотехнологичными разработками в области лазеров, систем наведения ракет, систем противодействия ракетным ударам, системам 2х и 3х мерного моделирования, а также предоставления GIS данных к своим геомоделлерам, системы коммуникации космос-воздух-земля и сопряжения с геомоделлером, системы искуственного интеллекта и анализа боевой ситуации.
В 2002 году, они разрабатывают биологически идентичную, со случайными подключениями нейронную сеть(комп. иммитацию), содержащую 105 нейронов. Закрытие сайта в Баллстоне выглядит тем более странно, что там же находится штаб-квартира DARPA и организация по поддержке фундаментальных научных исследований (NSF).
На данный момент времени, технология семантической подстройки под пользователя реализована в следующих проектах: semanticweb, Evri, Twine и Hakia.
Диаграммы тайминга разработки технологии SWAN, реализованной в semanticweb, можно посмотреть на моменты 2004 и 2005 годов.
Hakia, согласно описанию на сайте, образована в 2004м году за счет частных инвесторов. Особенностью технологии семантического поиска Hakia, является языковая независимость при ранжировании, а также при добавлении семантического словаря, она способна понимать смысл утверждений. На момент 2008 года компанией Hakia разработаны две технологи: QDEX отвечающей за "понимание" смысла запроса и SemanticRank, которая ранжирует информацию собранную в интернете. Глава и основатель компании Hakia Nova Spivack является ведущим консультантом в компании SRI international, которая непосредстенно принимала участие в разработке проекта CALO.

Теперь взглянем на средства персональной обработки, а именно PDA, Smart Phones, Smartphones.
Согласно отчету Gartner опубликованному 23 февраля 2010 года в статье Gartner Says Worldwide Mobile Phone Sales to End Users Grew 8 Per Cent in Fourth Quarter 2009; Market Remained Flat in 2009. Доля OS была распределена следующим образом:
Company2009 Market
Symbian46,9
Research In Motion (RIM)
(Blackberry)
19,9
iPhoneOS14,4
Microsoft Windows Mobile8,7
Linux4,9
Android3,9
WebOS0,7
Other OSs0,6

Однако по информации опубликованной в ноябре 2010 года на сайте CNews.Ru со ссылкой на тот же Gartner, доля рынка на 3ий квартал 2010 года выглядела следующим образом:
Symbian36,6
Android25,5
iOS16,7
BlackBerry OS 14,8
Windows Mobile2,8
Linux2,1
Прочие1,5

Как это не парадоксально выглядит, но начиная с прихода к управлению Olli-Pekka Kallasvuoв 2006 году, с 2007 года Nokia начинает свое падение. Возможно и скорее всего это связано с тем, что Nokia сделала попытку переориентироваться на другую операционную систему, сначала это была Maemo, на смену которой планировалась Meego, а когда объемы рынка начали приближаться к критическим отметкам, Nokia вновь взглянула на Symbian, потеряв к тому времени компании Sony и Samsung, которые переключились на операционную систему Android. Это катастрофически отразилось на привлекательности и оценке деятельности компании Nokia.
На ее место приходят компании работавшие с DARPA в течении последних 10 лет.

Давайте еще раз заглянем на сайт DARPA в раздел проекта I2O (Information Innovation Office), в раздел "Spoken Language Communication and Translation System for Tactical Use" (разговорный коммуникатор-переводчик тактического назначения).

7 февраля 2010 года газета The Sunday Timesопубликовала информацию о том, что Google объявила о решении проблемы распознавания голоса. Что открыло компании возможность связыванию двух своих технологий: это довольно точный переводчик, ранее доступный через Web сервис Google Translate и голосовой распознаватель.

21 июля 2010 года Национальный Институт Стандартов и Технологий (NIST) опубликовал пресс релиз о начале тестирования переводчика на основе смартфона. Причем начато это тестирование не с самого простого и разработанного языка, а именно с языка, а если быть точным двух языков по которым у американцев наблюдается провал - это два диалекта Афганского, Пашто и на Дари, на котором в частности говорят в Ираке. В качестве смартфона используется Google Nexus One на базе OS Android 2.1.

В связи с этим возникает вопрос. Nokia сама уступила рынок или ей помогли.
Управять ситуацией можно по разному. Можно напрямую, можно косвенно, через предоставление неверной информации, которая будет приводить к неверным поступкам.
Исполнительным директором компании Nokia в последнне время являлся Olli-Pekka Kallasvuo, который до 23 января 2009 года являлся, также, директором американской компании EMC Corporation. Анализ информации показывает отсутствие каких либо связей между проектами DARPA и интересами компании EMC Corporation. Поэтому с учетом информации из интервью, данном им газете Helsingin Sanomat, где кратко был описан его график работы. Работа начиналась с 8:30 и длилась 12 часов, после чего он приходил домой, где продолжал работать, потом отдых; 140 дней в году занимали командировки и никаких праздников в течении несколько лет. Как говорит сам Olli-Pekka: "Обычно у меня было несколько выходных дней на рождество и вторая неделя августа.".
Так что ошибки компании вероятно связаны с бешенным графиком жизни ее директора, который не давал возможности сосредоточится на анализе. Жизнь "на бегу" для двух компаний.

Но вернемся к облакам.

Фактически на начало 2011 года в США имеется вся технологическая цепочка по автоматической обработке информации на основе модифицированных алгоритмов нечеткой логики, способная принимать, хранить, обрабатывать, анализировать, классифицировать не только печатную информацию, но и голосовую, факсовую не привлекая к этому человека на протяжении всей цепочки.

У информации есть одно особенное свойство, ее способность к трансформации.
В основном это касается статистической информации, имея статус публичной в точке сбора, будучи собранной, она может приобрести статус ДСП (для служебного пользования).
Знание и понимание корелляции параметров собранной информации, тенденций и прогнозы могут представлять серьезный интерес для разведок не только государств, но и для конкурентных разведок крупных корпораций. Информационный рынок развивается с чудовищной скоростью. Сейчас можно приобрести не только спутниковый снимок высокого разрешения любой точки земного шара, но и аналитическую разработку в любой области знаний, а также приобрести сырые данные для произведения собственного анализа.

Таким образом, облачные вычисления, вынесенный документооборот на внешние, администрируемые третьими компаниями сервера, потенциально может представлять не сколько коммерческие риски, сколько риски государственные. Так как информация циркулирующая в разных компаниях разрозненна, но будучи отобранной по определенным геополитическим, экономическим или каким либо еще критериям и обработана в соотвествующем ракурсе, может предоставить аналитическому центру или заказчику, информацию, которой не обладает даже сам владелец информации.

Анализ и прогнозирование - это два экономических рычага, которые позволяют компаниям побеждать в тендерах, получать финансирование, выдерживать конкуренцию, а государствам побеждать в политических и экономических спорах и даже войнах.

Фактически на текущий момент, можно утверждать, что США произвели модернизацию своего Эшелона, прозрачно и незаметно, части этого комплекса, обкатываются на бизнес моделях, весьма популярны среди потребителей. Качество сбора, обработки, хронологической корелляции информации вышло на высокий уровень и хотя технологии разработаны совсем недавно, через 10-20 лет, это будут взрослые, сформировавшиеся интегрированные друг с другом технологии, которые будут давать большие стратегические преймущества владельцам крупных облаков.

Hosted by uCoz