Елена Булыгина предлагает Вам запомнить сайт «Ленусик»
Вы хотите запомнить сайт «Ленусик»?
Да Нет
×
Прогноз погоды

Основная статья: Big data

Путь аналитика: из агентства — в мир big data и big zarplata

О неоконченном высшем образовании

Моя история начинается в Красноярске, где в разное время я учился на трех факультетах Сибирского федерального университета. Сначала — на математическом. Там было тяжело, преподаватели строгие, но я здорово продвинулся в интеллектуальном плане и получил первый опыт программирования на С++. Теперь ценю это. К сожалению, из-за высокой нагрузки пришлось перевестись на философский факультет. Я проучился там до ухода в армию, а после возвращения отчислился — нужно было работать. 

На этом историю с вузом можно было закончить, но я поддался общему мнению, что без высшего образования карьеру не сделать. Поступил на специальность «менеджмент качества» — быстро осознал, что зря, и ушел. Как показала жизнь, мой путь к хорошей работе и зарплате лежал в другой стороне.

Рекламная аналитика

Затем я стал аналитиком в рекламном агентстве. Нужно было составлять отчеты по рекламе и попутно решать административные задачи. Работа оказалась нервной и слишком «клиентоориентированной»: деньги ставились выше здравого смысла. Где-то через год я понял, что не привыкну.

Несколько раз приходилось видеть, как люди эмоционально выгорали. Их склад ума и психики не подходил для работы в рекламе, где сплошные авралы и дедлайны. И после очередного такого случая я твердо решил искать другое занятие. Чтобы изменить свою жизнь, мне понадобилось два года. 

Учеба и первые результаты 

В 2017 году один товарищ порекомендовал мне бесплатные экспресс-курсы GeekBrains. Я записался и прошел интенсив по Java, но с покупкой платного курса не спешил — изучал отзывы в сети. Они были противоречивыми, но хороших оказалось больше. И еще я заметил, что авторы самых негативных отзывов не были знакомы с моделью обучения на платных курсах.

Я записался на факультет Java, потому что читал об этом языке как об инструменте «боевого» дата-инжиниринга. Дальше стал изучать Scala, и эта связка помогла мне разобраться в анализе больших данных на уровне начинающего специалиста. Я уже примерно понимал, что мне по силам, а за что пока лучше не браться.

К слову, изучать Java я начал еще во время работы в рекламном агентстве. Тут же стал применять новые знания на практике: автоматизировал свои рабочие процессы, снизил повседневную нагрузку. Результаты порадовали и еще больше убедили развиваться в выбранном направлении. 

После курса Java я поступил на факультет BigData и быстро ощутил, как здорово прокачиваю аналитику. Новые знания ложились на каркас практики, который у меня уже был.

А еще я начал понимать исходный код программ, даже если он на другом языке.

Стало ясно, что со знанием концепций программирования осваивать новые языки и инструменты — дело техники.

На простейшем уровне я был знаком с Python и SQL еще до GeekBrains. Но это были фрагментарные знания. Обучение на курсах дает теоретическую и практическую подготовку, с которой можно трудоустроиться.

В Питер — за перспективами

Весной 2018 года я решился на переезд в Санкт-Петербург, где возможностей, конечно, побольше, чем в Красноярске. На тот момент у меня было уже три года опыта в рекламном агентстве. За месяц до отлета я предупредил руководство, что ухожу, подготовил себе замену, разработал должностные инструкции и передал все дела.

В Питере я практически сразу нашел компанию, где я могу стать аналитиком с базовыми навыками программирования. Это было бутиковое рекламное агентство закрытого типа. На собеседовании они смотрели на мои рабочие навыки и на то, как я усваиваю новую информацию и взаимодействую с коллективом. Программирование их интересовало скорее на перспективу. Ведь даже рекламная аналитика — это не только Google Analytics, Яндекс.Метрика и Excel, но и автоматизация. Ожидание оффера затянулось на месяц, но цель была достигнута.

К сожалению, примерно через год компания объявила о скором закрытии. Отдел аналитики распустили, и до середины июня я ходил по собеседованиям. После одного из них меня взяли на испытательный срок.

Знаний Python, SQL и Power BI хватило, чтобы справился с тестовым заданием. Еще были вопросы на рабочую логику — тут пригодился опыт аналитика.

 Рабочее место Алексея: ничего лишнего

Я увидел, что буду работать с адекватными и спокойными людьми. Руководитель сам в прошлом был рекламным аналитиком в агентстве, и мы отлично поняли друг друга.

Еще понравилось, что со мной не торговались по зарплате. На рынке аналитики, особенно в рекламе, не всегда адекватно оценивают твой труд. Многие пытаются сбивать цену фразами типа «Вы же готовы к даунгрейду в первое время?». Как человек с опытом, я сразу понимаю, что «первое время» затянется. А здесь мне позволили самому доказать, сколько я могу сделать и заработать.

Как я работаю

Сейчас я аналитик в управляющей компании в kassir.ru — зарабатываю в 2,5 раза больше, чем на прошлом месте. Но главное — получаю удовольствие от того, чем занимаюсь.

Я работаю над сайтами экосистемы компании: использую SQL и Python, R (на нем написан legacy-код), PowerBI, MS Azure, Google Analytics. Это единственное, что могу рассказать о своих задачах, так как в компании я подписал NDA. Добавлю только, что опыт в рекламной аналитике пригодился.

Большую часть дня я провожу в офисе, и здесь мне очень нравится атмосфера. Никто не нервничает: рабочие процессы отлажены и даже сложные задачи решаются в разумный срок. Нет давящей корпоративной культуры. Поэтому я спокоен и сконцентрирован на деле, а не на выживании.

Сейчас я на испытательном сроке и активно вникаю в новые для себя сферы. Пока анализирую не столько большие, сколько средние данные. Мне предоставили необходимую свободу и поддержку: никто не стоит над душой, следят только за результатами.

Что касается программирования, я самостоятельно практикуюсь в Java, планирую ближе знакомиться с Clojure и Scala, продолжаю изучать Python и SQL в GeekBrains.

Что я понял на своем опыте

Если боитесь пробовать себя в IT, значит, пока не понимаете, чем предстоит заниматься. По-моему, лучший способ это прояснить — съездить на конференцию и познакомиться с разработчиками. Они расскажут, чем занимаются на практике и какие видят перспективы по своему направлению.

Как проходить собеседования

Я советую ходить на собеседования не по принципу «лишь бы взяли», а смотреть на компанию и всерьез думать, хотите ли вы у них работать. Потому что бывают очень неприятные собеседования в духе «чего приперся?!». Если люди с порога вызывают негатив, не надейтесь, что все наладится. Просто ищите дальше — сбережете время и нервы. Без уважения в команде нормальной работы не бывает.

И не стоит бояться, что вы чего-то не знаете. Даже если накосячите пару раз, получите хороший опыт — и потом, на нужном собеседовании, ответите правильно.

Как адаптироваться на новом месте

Когда выходишь на новую работу, кажется, что вот сейчас возьмешься, за две недели во всем разберешься и покажешь, какой ты крутой специалист. Это иллюзия! Не надо торопиться: если подготовка нового сотрудника рассчитана на квартал — значит, все это время надо будет напряженно учиться. 

Чтобы вникнуть в серьезный продукт, нужно минимум два месяца! Это при условии, что у вас адекватное начальство и вас поддерживают коллеги. Плюс по ходу дела придется уточнять очень много деталей и ждать, когда все это осядет в голове.

Как не потерять интерес

На первых порах учеба будет отнимать у вас основную часть времени и жизненных сил. Вы не сможете уделять достаточно внимания семье, друзьям и увлечениям. Но потом многое можно будет наверстать. На мой взгляд, в IT стоит идти хотя бы за тем, чтобы делать жизнь вокруг удобнее и совершеннее. Конечно, здесь и платят неплохо, но деньги — временный мотиватор. Чтобы стать успешным специалистом, надо жить своим делом. Именно это дает силы для постоянного развития.

Кстати, с ноября начинается новый поток факультета аналитики Big Data в GeekUniversity. За полтора года там можно освоить все современные технологии работы с большими данными — а их более двух десятков! Параллельно вы получите множество других навыков, важных для работы в любой IT-компании, — и в результате будете полностью готовы начать новую главу в своей карьере.

Пройти обучение

24 окт 19, 12:41
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

От IT-рутины — к аналитике Big Data

— Вы работаете сетевым инженером в «Альфа-Банке». Почему решили сменить профессию, ведь вы уже в IT?

— Изначально эта работа была действительно интересной. Постоянно добавлялись новые задачи и обязанности. Но теперь обслуживание специфического сетевого оборудования превратилась для меня в рутину.

Более того, после мониторинга рынка я осознал, что мои нынешние знания и опыт не особо помогут продвинуться в профессии. Фактически я оказался в тупике развития. Это я осознал примерно через четыре года работы в компании. 

Все остальное нравится: адекватное руководство, отличный коллектив. Но я считаю, что в IT главное — развиваться.

— C вашей специальностью совсем не получилось бы продвигаться?

— Подобные вакансии есть и в других компаниях, но обязанности похожи везде. Уровень зарплаты тоже примерно равный. Если бы я перешел в другую компанию, делал бы то же самое и получал бы столько же.

— Почему вы решили изучать Python?

— Все решилось само собой. Мне понадобилось написать скрипт для выгрузки данных. А знаний для этого практически не было, так как последние занятия по программированию у меня были еще в вузе. Но я слышал и читал, что для таких задач идеально подходит Python.

Огромный плюс этого языка для меня — относительная простота в освоении. Я не хотел тратить месяцы на обучение, чтобы написать скрипт. Ну а поскольку Python используется также в других аспектах веб-разработки и для аналитики, то мой выбор был очевидным.

GeekBrains я выбрал потому, что двое моих друзей учились здесь. Я поступил на курс «Программист Python».

— Что дало вам обучение?

— Меня увлек мир разработки. Очень радовало, когда обычные строки кода превращались в рабочую программу, которая делала то, что я задумал. Программирование — это творчество, и я решил продолжать свой путь.

Кстати, тот самый скрипт, о котором шла речь выше, я написал и получил за это повышенную премию.

— Как планируете развиваться?

— Решил продолжать работу с Python и смежными сферами. Недавно поступил в Geek University на факультет аналитики Big Data. Сложновато совмещать работу и учебу, и с маленькой дочкой тоже хочется проводить время. Но я справляюсь.

— А что с работой, уже нашли новое место?

— Пока нет, но и к поискам приступил недавно. Ищу работу по специальности «аналитик Big Data» или Data Scientist. Это очень востребованное направление: спрос на таких специалистов велик, как и спектр задач, которые они решают.

Активно начну искать новое место после того, как закончу обучение. Помимо курсов в GU еще изучаю машинное обучение и анализ данных на Coursera. Подтягиваю математику и алгоритмы. Не хватает реальной практики — хотя и будет выпускной проект, который объединит все полученные знания в одну задачу.

Мне хотелось бы найти работу в крупной технокорпорации, которая специализируется на разработке и аналитике. Например, в Mail.ru или Яндексе. Хочу принимать участие в разработке проектов, которые будут полезны миллионам пользователей. Именно эта цель заставляет меня идти вперед, даже когда устал.

— Вы живете в Москве. Как считаете, подходит ли столица для представителей IT-сферы?

— Да, конечно, здесь множество IT-компаний, которым практически всегда нужны сотрудники в штат и на удаленку. Для себя я выбрал работу в офисе, другие форматы пока не интересуют. Кстати, часто сталкиваюсь с тем, что зарплата штатных сотрудников выше, чем у удаленщиков.

— Как считаете, чего обычно боятся те, кто только планирует уйти в IT или сменить специальность? 

— У меня много раз при смене работы появлялись мысли вроде «А вдруг на новом месте будет не так комфортно, как здесь?». Но в итоге все оказывалось хорошо и я понимал, что не стоило переживать. Главное — верить в свои силы. Лично мне здорово помогала мысль «Если кто-то смог, то почему я не смогу?». И медведей учат на мотоцикле кататься.

Смена сферы деятельности может многих отпугнуть тем, что все как бы приходится начинать с нуля. Но это не совсем верно. Если вы для смены работы закончили хорошие курсы, то при выпуске у вас есть рабочие проекты, юзкейсы, а не просто набор теоретических знаний.

Пройти обучение

23 сен 19, 16:18
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

Big Data — большая ответственность, большой стресс и деньги

Термин Big Data (большие данные) подпорчен современным фантастическим преувеличением новых вещей. Как ИИ поработит людей, а блокчейн построит идеальную экономику — так и большие данные позволят знать абсолютно все про всех и видеть будущее. 

Но реальность, как всегда, скучнее и прагматичнее. В больших данных нет никакой магии — как нет ее нигде — просто информации и связей между разными данными становится так много, что обрабатывать и анализировать все старыми способами становится слишком долго.

Появляются новые методы, вместе с ними — новые профессии. Декан факультета Big Data в GeekBrains Сергей Ширкин рассказал, что это за профессии, где они нужны, чем там надо заниматься и что надо уметь. Какие используются методы и технологии обработки больших данных, инструменты и сколько обычно платят специалистам.

Что такое «большие данные»

Вопрос «что называть большими данными» довольно путаный. Даже в публикациях научных журналов описания расходятся. Где-то миллионы наблюдений считаются «обычными» данными, а где-то большими называют уже сотни тысяч, потому что у каждого из наблюдений есть тысяча признаков. Поэтому данные решили условно разбить на три части — малые, средние и большие — по самому простому принципу: объему, который они занимают.

Малые данные — это считанные гигабайты. Средние — все, что около терабайта. Одна из основных характеристик больших данных — вес, который составляет примерно петабайт. Но путаницу это не убрало. Поэтому вот критерий еще проще: все, что не помещается на одном сервере — большие данные.

В малых, средних и больших данных разные принципы работы. Большие данные как правило хранятся в кластере сразу на нескольких серверах. Из-за этого даже простые действия выполняются сложнее.

Например, простая задача — найти среднее значение величины. Если это малые данные, мы просто все складываем и делим на количество. А в больших данных мы не можем собрать сразу всю информацию со всех серверов. Это сложно. Зачастую надо не данные тянуть к себе, а отправлять отдельную программу на каждый сервер. После работы этих программ образуются промежуточные результаты, и среднее значение определяется по ним.

Сергей Ширкин 

Какие компании занимаются большими данными

Первыми с большими данными, либо с «биг дата», начали работать сотовые операторы и поисковые системы. У поисковиков становилось все больше и больше запросов, а текст тяжелее, чем цифры. На работу с абзацем текста уходит больше времени, чем с финансовой транзакцией. Пользователь ждет, что поисковик отработает запрос за долю секунды — недопустимо, чтобы он работал даже полминуты. Поэтому поисковики первые начали работать с распараллеливанием при работе с данными.

Чуть позже подключились различные финансовые организации и ритейл. Сами транзакции у них не такие объемные, но большие данные появляются за счет того, что транзакций очень много.

Количество данных растет вообще у всех. Например, у банков и раньше было много данных, но для них не всегда требовались принципы работы, как с большими. Затем банки стали больше работать с данными клиентов. Стали придумывать более гибкие вклады, кредиты, разные тарифы, стали плотнее анализировать транзакции. Для этого уже требовались быстрые способы работы.

Сейчас банки хотят анализировать не только внутреннюю информацию, но и стороннюю. Они хотят получать большие данные от того же ритейла, хотят знать, на что человек тратит деньги. На основе этой информации они пытаются делать коммерческие предложения.

Сейчас вся информация связывается между собой. Ритейлу, банкам, операторам связи и даже поисковикам — всем теперь интересны данные друг друга.

Каким должен быть специалист по большим данным

Поскольку данные расположены на кластере серверов, для их обработки используется более сложная инфраструктура. Это оказывает большую нагрузку на человека, который с ней работает — система должна быть очень надежной. 

Сделать надежным один сервер легко. Но когда их несколько — вероятность падения возрастает пропорционально количеству, и так же растет и ответственность дата-инженера, который с этими данными работает.

Аналитик big data должен понимать, что он всегда может получить неполные или даже неправильные данные. Он написал программу, доверился ее результатам, а потом узнал, что из-за падения одного сервера из тысячи часть данных была отключена, и все выводы неверны.

Взять, к примеру, текстовый поиск. Допустим все слова расположены в алфавитном порядке на нескольких серверах (если говорить очень просто и условно). И вот отключился один из них, пропали все слова на букву «К». Поиск перестал выдавать слово «Кино». Следом пропадают все киноновости, и аналитик делает ложный вывод, что людей больше не интересуют кинотеатры.

Поэтому специалист по большим данным должен знать принципы работы от самых нижних уровней — серверов, экосистем, планировщиков задач — до самых верхнеуровневых программ — библиотек машинного обучения, статистического анализа и прочего. Он должен понимать принципы работы железа, компьютерного оборудования и всего, что настроено поверх него.

В остальном нужно знать все то же, что и при работе с малыми данным. Нужна математика, нужно уметь программировать и особенно хорошо знать алгоритмы распределенных вычислений, уметь приложить их к обычным принципам работы с данными и машинного обучения.

Какие используются инструменты и технологии big data

Поскольку данные хранятся на кластере, для работы с ними нужна особая инфраструктура. Самая популярная экосистема — это Hadoop. В ней может работать очень много разных систем: специальных библиотек, планировщиков, инструментов для машинного обучения и многого другое. Но в первую очередь эта система нужна, чтобы анализировать большие объемы данных за счет распределенных вычислений. 

Например, мы ищем самый популярный твит среди данных разбитых на тысяче серверов. На одном сервере мы бы просто сделали таблицу и все. Здесь мы можем притащить все данные к себе и пересчитать. Но это не правильно, потому что очень долго.

Поэтому есть Hadoop с парадигмами Map Reduce и фреймворком Spark. Вместо того, чтобы тянуть данные к себе, они отправляют к этим данным участки программы. Работа идет параллельно, в тысячу потоков. Потом получается выборка из тысячи серверов на основе которой можно выбрать самый популярный твит.

Map Reduce более старая парадигма, Spark — новее. С его помощью достают данные из кластеров, и в нем же строят модели машинного обучения. 

Какие профессии есть в сфере больших данных

Две основные профессии — это аналитики и дата-инженеры. 

Аналитик прежде всего работает с информацией. Его интересуют табличные данные, он занимается моделями. В его обязанности входит агрегация, очистка, дополнение и визуализация данных. То есть, аналитик в биг дата — это связующее звено между информацией в сыром виде и бизнесом. 

У аналитика есть два основных направления работы. Первое — он может преобразовывать полученную информацию, делать выводы и представлять ее в понятном виде.

Второе — аналитики разрабатывают приложения, которые будет работать и выдавать результат автоматически. Например, делать прогноз по рынку ценных бумаг каждый день. 

Дата инженер — это более низкоуровневая специальность. Это человек, который должен обеспечить хранение, обработку и доставку информации аналитику. Но там, где идет поставка и очистка — их обязанности могут пересекаться

Bigdata-инженеру достается вся черная работа. Если отказали системы, или из кластера пропал один из серверов — подключается он. Это очень ответственная и стрессовая работа. Система может отключиться и в выходные, и в нерабочее время, и инженер должен оперативно предпринять меры.

Это две основные профессии, но есть и другие. Они появляются, когда к задачам, связанным с искусственным интеллектом, добавляются алгоритмы параллельных вычислений. Например, NLP-инженер. Это программист, который занимается обработкой естественного языка, особенно в случаях, когда надо не просто найти слова, а уловить смысл текста. Такие инженеры пишут программы для чат-ботов и диалоговых систем, голосовых помощников и автоматизированных колл-центров. 

Есть ситуации, когда надо проклассифицировать миллиарды картинок, сделать модерацию, отсеять лишнее и найти похожее. Эти профессии больше пересекаются с компьютерным зрением. 

Сколько времени занимает обучение

У нас обучение идет полтора года. Они разбиты на шесть четвертей. В одних идет упор на программирование, в других — на работу с базами данных, в третьих — на математику.

В отличии, например, от факультета ИИ, здесь поменьше математики. Нет такого сильного упора на математический анализ и линейную алгебру. Знания алгоритмов распределенных вычислений нужны больше, чем принципы матанализа. 

Но полтора года достаточно для реальной работы с обработкой больших данных только если у человека был опыт работы с обычными данными и вообще в ИТ. Остальным студентам после окончания факультета рекомендуется поработать с малыми и средними данными. Только после этого специалиста могут допустить к работе с большими. После обучения стоит поработать дата-саентистом — поприменять машинное обучение на разных объемах данных.

Когда человек устраивается в большую компанию — даже если у него был опыт — чаще всего его не допустят до больших объемов данных сразу, потому что цена ошибки там намного выше. Ошибки в алгоритмах могут обнаружиться не сразу, и это приведет к большим потерям.

Какая зарплата считается адекватной для специалистов по большим данным

Сейчас есть очень большой кадровый голод среди дата-инженеров. Работа сложная, на человека ложится много ответственности, много стресса. Поэтому специалист со средним опытом получает около двухсот тысяч. Джуниор — от ста до двухсот. 

У аналитика данных стартовая зарплата может быть чуть меньше. Но там нет работы сверх рабочего времени, и ему не будут звонить в нерабочее время из-за экстренных случаев.

Как готовиться к собеседованиям

Не нужно углубляться только в один предмет. На собеседованиях задают вопросы по статистике, по машинному обучению, программированию. Могут спросить про структуры больших данных, алгоритмы, применение, технологии, про кейсы из реальной жизни: упали сервера, случилась авария — как устранять? Могут быть вопросы по предметной сфере — то, что ближе к бизнесу

И если человек слишком углубился в одну математику, и на собеседовании не сделал простое задание по программированию, то шансы на трудоустройство снижаются. Лучше иметь средний уровень по каждому направлению, чем показать себя хорошо в одном, а в другом провалиться полностью.

Есть список вопросов, которые задают на 80 процентах собеседований. Если это машинное обучение — обязательно спросят про градиентный спуск. Если статистика — нужно будет рассказать про корреляцию и проверку гипотез. По программированию скорее всего дадут небольшую задачу средней сложности. А на задачах можно легко набить руку — просто побольше их решать. 

Где набираться опыта самостоятельно

Python можно подтянуть на Питонтьютор, работы с базой данных — на SQL-EX. Там даются задачи, по которым на практике учатся делать запросы. 

Высшая математика — Mathprofi. Там можно получить понятную информацию по математическому анализу, статистике и линейной алгебре. А если плохо со школьной программой, то есть сайт youclever.org

Распределенные же вычисления тренировать получится только на практике. Во-первых для этого нужна инфраструктура, во-вторых алгоритмы могут быстро устаревать. Сейчас постоянно появляется что-то новое. 

Какие тренды обсуждает сообщество

Постепенно набирает силу еще одно направление, которое может привести к бурному росту количества данных — Интернет вещей (IoT). Большие данные такого рода поступают с датчиков устройств, объединенных в сеть, причем количество датчиков в начале следующего десятилетия должно достигнуть десятков миллиардов. 

Устройства самые разные — от бытовых приборов до транспортных средств и промышленных станков, непрерывный поток информации от которых потребует дополнительной инфраструктуры и большого числа высококвалифицированных специалистов. Это означает, что в ближайшее время возникнет острый дефицит дата инженеров и аналитиков больших данных.


3 июл 19, 21:30
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

Мы провели GeekChange!

С 3 по 8 июня 2019 мы проводили GeekChange — отвечали на горячие вопросы об IT на протяжении 12 онлайн-встреч и еще четырех часов живого общения в офисе Mail.ru Group. GeekChange — это все, что вы хотели знать об IT и не побоялись спросить.

Онлайн-часть мероприятия собрала порядка 7 тысяч участников со всей России. В московский офис встретиться с нами приехали более 700 человек!

Зачем мы это устроили, как все прошло и чем закончилось — сейчас расскажем и покажем.

Слово организаторам

Послушаем двух очаровательных девушек из команды, которая затеяла жаркую движуху в начале лета.

Анна Пимкина, event-менеджер GeekBrains:

«GeekChange — наш способ ответить на самые важные и частые вопросы от желающих работать в IT: с чего начать, каков порог вхождения, есть ли возрастные ограничения, какие перспективы.

Мы рассказывали о направлениях IT, о том, как к ним подступиться, какие инструменты использовать. Где можно — добавляли практическую часть, чтобы участники «пощупали» и примерили на себя специальности.

Эксперты по каждому направлению рассказывали не только о технической стороне работы, но и о soft skills — личностных качествах и умениях, востребованных в сфере IT. Потому что будущий профи — это человек со своими сомнениями, трудностями в обучении, навыками концентрации и потребностью в отдыхе.

Приятно отслеживать статистику по нашим видео и замечать, что многие сейчас досматривают и пересматривают записи вебинаров. :) Конечно, кто-то хотел отдельный практикум по своей теме, но всего в одном GeekChange не уместить. Зато мы продолжаем готовить вебинары и мастер-классы, которые помогут вам углубиться в конкретные специальности.

Главное, что мы хотели показать на GeekChange: меняться можно при любых исходных условиях. GeekBrains тоже постоянно меняется, так что мы понимаем своих студентов и готовы поддержать их на любом этапе развития: от старта карьеры в IT до повышения квалификации или смены направления. Мы счастливы, что люди доверяют нам обучать их профессии.

Сейчас мы собираем обратную связь: будем признательны, если ответите на несколько вопросов о своем участии. Это поможет готовить будущие мероприятия — делать их еще более содержательными и удобными по формату».

Любовь Поспелова, продакт-менеджер GeekUniversity и направления «Программирование» в GeekBrains: «Мы устроили встречу в офисе, чтобы „развиртуализировать“ общение со студентами и посетителями сайта GeekBrains. Предварительно узнали, что интересно пользователям, и вокруг этих тем организовали активности в трех зонах мероприятия:

  • «Руководство по эксплуатации» — общение с преподавателями GeekBrains на темы разработки и обучения;
  • «Демоверсия» — первая примерка новой специальности;
  • «Crush-тест» — проверка мотивации, разбор стереотипов и развеивание сомнений, связанных с работой в IT.


Чтобы людям было где спокойно посидеть и отдохнуть между встречами, мы открыли лаундж на втором этаже. Получилась зона «Перезагрузка».

Что касается содержания встречи, смысл был в том, что гости получали информацию из первых рук — от наших преподавателей, деканов и методистов, которые создают и улучшают программы обучения. А еще мы пригласили коллег из Ростелекома и других IT-компаний — они рассказали о трендах отрасли и о том, кого ждут на работу сейчас и через год».

Впечатления преподавателей и методистов

Каждый блок в программе мероприятия затрагивал очень обширную тему, так что было любопытно, на чем преподаватели и методисты делали акценты в своих выступлениях и почему. Еще хотелось узнать, как все это воспринимали слушатели, какие были вопросы и насколько живым и продуктивным получилось общение. И, конечно, какие впечатления остались от встречи у спикеров.

Александр Скударнов — методист направлений Big Data, ИИ, Android и тестирование. Выступал в блоке «Какой я программист?»:

«Нашей задачей было показать новичкам карту возможностей развития в IT. Мы разделились по направлениям. Иван Овчинников, разработчик Java и C++, рассказывал про десктоп-разработку. Алексей Кадочников (frontend-разработчик) — о мобильной и веб-разработке, информационной безопасности, DevOps. Я говорил про искусственный интеллект, Big Data и тестирование. Немного затронул разработку игр.

Процитирую свое выступление: „Если бы у нас был урок географии, мы перечисляли бы названия континентов и общие сведения о них, может, затронули парочку известных стран“. Так что отдельных IT-профессий мы коснулись в общих чертах, чтобы слушатели представляли, о чем дальше спрашивать наших коллег.

Вопросы были животрепещущими. Ивана спросили, как сменить работу и год не бросать учиться на программиста, если тебе за тридцать. Возможно, это крик души нашей целевой аудитории. :) Другой вопрос — сколько времени занимает поиск первой работы и что делать, если постоянно отказывают.

Обычно самые интересные беседы со слушателями начинаются после выступления, когда у тебя есть больше пяти минут, чтобы понять вопрос человека и попытаться помочь хотя бы советом. Так было и в этот раз.

По моим ощущениям, люди пришли подготовленными — знали, кого хотят послушать и о чем спросить. Я не успел обойти все локации, но было приятно видеть, как наших преподавателей окружали и штурмовали вопросами.

Люблю общаться со студентами, чтобы понимать, как они учатся и как я могу упростить им этот процесс. Встретил нашу студентку с факультета искусственного интеллекта в роли волонтера! Вообще, у нас много инициативных ребят. Очень здорово, когда люди параллельно с учебой находят время участвовать в жизни GeekBrains. Они инвестируют свое время не только в образование, но и в сообщество».

Алексей Кадочников, преподаватель и методист образовательных программ GeekBrains. Выступал в блоке «Какой я программист?»:

«В первую очередь мы говорили о трендах программирования. Большинство начинающих разработчиков не знают, за что хвататься: какие технологии сейчас наиболее перспективны, а что уже теряет актуальность. Поэтому мы рассмотрели популярные направления: плюсы и минусы каждого при изучении и с точки зрения работы. Еще мы поговорили об актуальных языках программирования: где востребован тот или иной и что можно делать с его помощью.

Вопросов от слушателей было так много, что мы успели ответить только на четверть, если не меньше. Правда, встречались похожие: «А не исчезнет ли эта технология завтра?», «Что делать, если я выучусь, а через год уже буду никому не нужен?». На такие вопросы отвечать было легко, потому что мы преподаем только самое актуальное, что должно оставаться востребованным еще минимум несколько лет.

Гостей особенно интересовали новые направления: искусственный интеллект и язык программирования Go.

Впечатления от встречи очень крутые. Люди были так приветливы — это, наверное, самая дружелюбная аудитория, которую я видел за последние пару лет!

В онлайн-режиме к нам подключились порядка 800 человек — очень много для мероприятия, где люди задают вопросы, а тебе надо отвечать. Конечно, не все гости из интернета подробно слушали каждое выступление: многие приходили и уходили.

Наш вебинар шел дольше, чем планировалось: мы так прониклись темой и общением, что трудно было остановиться».

Александр Синичкин, преподаватель GeekBrains и Python Team Lead в компании Usetech. Блок «Открой для себя Python» в зоне «Демоверсия»:

«В своем блоке я рассказал, для каких задач лучше всего подходит Python. Понятно, что это язык общего назначения, но есть ниши, где он сегодня просто незаменим: искусственный интеллект, машинное обучение, анализ больших данных.

Еще я показал несколько практических примеров, как использовать Python для автоматизации и решения повседневных задач.

Слушатели вели себя очень заинтересованно — после выступления я еще долго отвечал на их вопросы. Пожалуй, самый интересный и необычный вопрос был о том, можно ли, изучив машинное обучение, легко и безболезненно перейти в веб-разработку. Я ответил, что нельзя, и объяснил почему.

Больше всего меня впечатлило количество людей, которым хотелось послушать про Python.

Была во время моего выступления и очень забавная ситуация: я собирался показать аудитории свой мини-сайт, но вдруг выяснилось, что он заблокирован Роскомнадзором!»

Илья Афанасьев, декан факультета «Разработка игр» GeekUniversity. Блок «Играем по-взрослому: все что вы хотели знать о геймдеве» в зоне «Демоверсия»:

«Было много новичков, поэтому акцент я сделал на темах, интересных людям с нулевой подготовкой: какие есть движки, для чего они нужны, каковы зарплаты и перспективы у разработчиков. Не могу сказать, что ввести людей в курс дела очень просто. Мы с Иоанном Павловским — куратором профессии «Гейм-дизайнер» в GeekBrains — старались сформировать у людей базовые представления о реальном геймдеве.

Вопросов на нас посыпалось много, причем были среди них очень конкретные и непохожие друг на друга. Начиная с того, есть ли смысл программисту изучать новый язык ради перехода на движок Unity, и заканчивая техническими моментами, связанными с оптимизацией и структурированием проекта.

Общались долго и содержательно! Единственный недочет, который организаторы, надеюсь, учтут, — было шумно и тесно. Ребята меня просто окружили и скушали.

Многим приходилось сидеть за моей спиной, так что я зачастую не сразу замечал их руки и вопросы. Считаю, что в будущем на этап обсуждений стоит выделить не менее часа, чтобы аудитория могла общаться в комфортной обстановке и никуда не спешить».

Сергей Ширкин, декан факультета искусственного интеллекта GeekUniversity и Data Scientist в компании Dentsu Aegis Network Russia. Блок «Погружение в лабиринты искусственного интеллекта»:

«Людей было много, около трети из них — программисты. Тех, кто работал с ИИ, — примерно десятая часть, остальные — заинтересованные новички, которые что-то читали по теме.

Я рассказывал о технологиях прогнозирования: как можно предсказать событие или величину с помощью инструментов на Python. В качестве примеров приводил свои проекты по кредитному скорингу (вернет ли человек кредит) и прогнозированию рейтинга телепередач (чтобы канал правильно расставлял рекламу).

Когда я закончил выступление, человек двадцать остались, чтобы задать дополнительные вопросы. В результате мы беседовали еще примерно полтора часа!

Помимо студентов и школьников на GeekChange пришли люди, которым 30–50 лет. Они спрашивали, не поздно ли начинать карьеру разработчика в этом возрасте. Мне хотелось не просто их обнадежить, но привести реальные примеры: рассказал, что у нас есть успешные студенты и выпускники, которым под шестьдесят.

Программисты Java и R спрашивали, обязательно ли учить Python для работы с ИИ. Считаю, что да. Все основные инструменты Data Science — на Python, и рынок ждет специалистов, знающих этот язык».

Дополнительные активности

Не одними только лекциями и мастер-классами интересовались посетители GeekChange. На площадку «Crush-тест» гости приходили, чтобы поделиться своими сомнениями и страхами с методистами и психологами, получить рекомендации.

Ток-шоу «Разговор на горячие темы»

В кинозале консультанты GeekBrains Настя Стасенко и Дима Романов отвечали на самые неудобные вопросы про зарплату, возможные преграды на пути к трудоустройству, оплату обучения, сам учебный процесс. Народу набилось больше 100 человек — встал внеочередной вопрос: куда рассаживаться. Запас свободных стульев в Mail.ru практически иссяк, а люди все приходили и приходили. :)

Воркшоп «Учимся учиться без боли и слез»

Анна Полунина, методист образовательных программ GeekBrains по направлению «Дизайн»:

«Я рассказала о мотивации в образовательном проекте и о том, как ставить цели. Это вещи, с которых начинается любое образование.

Участники получали короткие практические задания на постановку целей: например, формулировали, зачем они идут учиться. А я старалась показать, как на этой основе выстроить краткосрочные цели, которые соответствовали бы желаемым целям и результатам.

Мы исходили из того, что, когда планируешь работу или учебу, нет универсальных алгоритмов. Есть долгосрочные цели, которые разбиваются на краткосрочные и далее ведут к результатам. Чем конкретнее и яснее сформулирована цель, тем проще выбрать подходящий формат обучения и проверить, достигнут ли результат. Постановка целей по SMART осталась за скобками — ей пришлось бы посвятить отдельное занятие.

Тема нашла отклик у слушателей: в основном спрашивали про лень и способы ее побороть. Приятно было видеть так много классных заинтересованных ребят, у которых горели глаза! Люди пришли не просто постоять и посмотреть, а с конкретными и насущными вопросами».

На площадке «Crush-тест» разбирали и другие психологические проблемы, связанные с обучением и сменой работы. Как мягко пройти период изменений, рассказала Антонина Осипова, практик телесной осознанности и преподаватель факультета психологии МГУ им. М. В. Ломоносова.

Розыгрыш призов

Выиграть обучение в GeekBrains можно было в викторине, онлайн и на встрече в офисе. За интересные вопросы на офлайн-части участники получали сувениры от GeekBrains и удобный перекус — натуральный попкорн Holy Corn. Судьбу остальных призов решил в офлайне генератор случайных чисел.

Всего мы разыграли:

  • пять билетов на Geek Picnic — один из крупнейших в Европе фестивалей, посвященных современным технологиям, науке и творчеству;

  • семь книг издательства «МИФ» об изменениях, осознанности и IT;

  • два курса обучения в GeekUniversity.

P. S.

Спасибо, что провели время с GeekBrains и наполнили мероприятие вопросами, на которые было интересно отвечать!

Главное — по итогам GeekChange многие из вас нашли свое направление в IT. Одни решили продолжать обучение самостоятельно, другие присоединились к сообществу наших студентов. В любом случае надеемся, что GeekChange подарил вам заряд мотивации и смелости для развития в IT. Будем рады видеть вас снова!

Партнеры

Пройти обучение

21 июн 19, 15:34
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

Аналитика Big Data: о новом факультете GeekUniversity

GeekUniversity запустил факультет аналитики Big Data (больших данных), и мы спешим рассказать о нем.

Наш сегодняшний собеседник — Сергей Ширкин — декан факультета и Data Scientist с опытом работы в таких компаниях, как Сбербанк, Росбанк, бюро кредитной истории Equifax. Он занимался автоматизацией финансовых технологий, строил финансовые модели на основе машинного обучения, прогнозировал просмотры рекламы с применением методов ИИ. Сейчас Сергей работает в компании Dentsu Aegis Network Russia, преподает в GeekBrains, возглавляет факультет искусственного интеллекта и новый факультет аналитики больших данных в GeekUniversity.

Сергей, привет! Расскажи, пожалуйста, почему из направления Data Science в GeekUniversity выделился факультет аналитики Big Data.

— Привет! Дело в том, что крупным компаниям нужны специалисты, которые умеют работать не просто с искусственным интеллектом, но и с большими объемами данных. С объемами, которые не обработаешь на обычном офисном компьютере или сервере: тут требуются другие мощности, а главное — алгоритмы распределенных вычислений.

Следовательно, нужны и специалисты, с такими алгоритмами знакомые.

Системы обработки больших данных — это высоконагруженные системы. Они нуждаются в осторожной грамотной эксплуатации. Не все специалисты, которые работают с искусственным интеллектом, хотят заниматься большими данными и сталкиваться с трудностями на этом пути. Тем более, для многих аналитических задач большие данные не нужны. Миллионы и десятки миллионов наблюдений, зафиксированных в базе, — это еще не Big Data. Здесь мы имеем дело с малыми и средними данными.

Специалист Data Science обычно работает с датасетом в несколько гигабайт. А большие данные измеряются в терабайтах и даже петабайтах. Для их обработки нужны кластеры машин и такие технологии, как Hadoop, Spark.

Насколько разных специалистов готовят факультеты искусственного интеллекта и анализа больших данных?

— У факультетов искусственного интеллекта и аналитики больших данных общий фундамент: и там и тут применяются статистика и машинное обучение. Но, когда у вас очень много данных, нужно знать специализированные библиотеки и технологии, прежде всего — экосферу Hadoop и парадигму MapReduce. Плюс понадобится технология Spark — более новая, чем MapReduce, и предназначенная для распределенных алгоритмов, в том числе для машинного обучения на больших данных.

Учатся на обоих факультетах одинаково по времени?

— Да, по полтора года — три семестра. Но на факультете аналитики Big Data есть дополнительные курсы, на которых студенты знакомятся с инфраструктурой (теми же Hadoop и Spark), узнают особенности работы именно с большими данными.

Получается, на факультете Big Data изучение аналитики глубже, а на Data Science — охват шире?

— Можно и так сказать. На факультете ИИ больше времени уделяется математике, компьютерному зрению, обработке естественного языка. Но, как я уже сказал, база одна.

Приведи примеры задач, которые аналитики больших данных решают в разных сферах: в банках, торговле, IT, телекоме, логистике и транспорте, консалтинге.

— В банках можно в реальном времени анализировать транзакции и тут же строить сложные модели. Малые или средние данные можно было бы сначала агрегировать и обработать, а с большими часто приходится работать в реальном времени: анализировать миллиарды транзакций и реагировать на них.

У кого еще много данных? У операторов связи: они ежедневно получают информацию терабайтами, и для работы с ней нужны специальные инструменты. Мы можем посмотреть, сколько SMS человек отправляет в день, и предложить ему подходящий тариф. Это делается, чтобы не терять клиентов. Пользователей миллионы, они постоянно делают звонки, и в результате у оператора формируется, условно говоря, таблица с миллионами строк. Чтобы это обработать, нужен кластер Hadoop, Spark и так далее.

С банками и операторами связи понятно. А другие примеры?

— В обработке Big Data может нуждаться сеть супермаркетов, которая делает свою рекомендательную систему.

Такая система составляет профиль клиента, где учитывает, какие покупки он делает. С ее помощью можно сообщать пользователю о подходящих акциях и скидках на интересные ему товары.

Получается, аналитик не только обрабатывает данные постфактум, но пишет сценарии реагирования: как система будет отвечать на события?

— Можно и постфактум анализировать, но для работы с большими данными в любом случае нужно хорошо программировать. Потому что ты имеешь дело не с таблицей Excel, а с массивом, к которому без специальных инструментов не подступишься, — для его обработки нужны библиотеки на Python. И уже с их помощью ты можешь формировать отчеты, строить графики или выводить результаты еще в каком-то виде.

Главное — понимать, что у аналитика Big Data нет готового приложения, где можно что-то вычислить и получить результат нажатием одной кнопки.

Python — это сейчас стандарт в области анализа больших данных?

— Да. В принципе, для этих задач можно использовать и Java, но по вакансиям в сфере аналитики данных видно, что работодатели в первую очередь требуют именно знание Python. Потому что под него больше популярных инструментов: библиотек для машинного обучения, просмотра данных и построения графиков.

Есть два подхода к анализу данных. Либо это Ad hoc — когда один раз смотришь нужный показатель на лету. Либо это система, которая работает и мониторит что-то ежедневно. Как правило, сначала аналитик делает множество запросов ad hoc, чтобы представить себе структуру данных и сориентироваться. А дальше он пишет приложение для регулярной работы с данными.

Можно пример, который иллюстрирует эти два подхода?

— Допустим, ты анализируешь сообщения в Twitter. Ты можешь разово найти десять самых популярных твитов месяца и вывести на одну страницу. Либо ты создашь решение, которое будет каждый день анализировать посты и выявлять тенденции: смотреть, как меняется популярность бренда по месяцам, например. Владелец бренда сможет учитывать это при разработке рекламных кампаний.

Результаты анализа больших данных более репрезентативны, чем то, что дает опрос тысячи человек или фокус-группы. И обходится работа аналитика в итоге дешевле, чем регулярное проведение опросов.

А если система работает в режиме реального времени, анализировать данные можно мгновенно, что позволяет быстрее реагировать на ситуацию.

Что такое предиктивная аналитика? Из названия ясно, что она связана с прогнозированием. Но как именно это работает?

— У нас есть данные, на основе которых мы строим прогноз: либо общий (пытаемся уловить тенденции), либо частный.

Пример частного прогноза в финансовой сфере — кредитный скоринг. Банки присваивают каждому клиенту балл «благонадежности»: насколько вероятно, что он вернет кредит. Для этого анализируют его историю поведения: какие кредиты брал, как отдавал, допускал ли просрочки по выплатам. Представь себе число клиентов крупного банка, и по каждому надо проанализировать множество транзакций.

У транспортных и логистических компаний тоже есть большие данные. Какие решения нужны в этой сфере? Прогнозирование дорожной ситуации в конкретное время в конкретном месте?

— Есть сервис «Яндекс.Пробки», да. Он строит прогнозы, в том числе на основе прошлых данных по разным участкам дороги. Но я сейчас другой пример вспомнил.

Вдоль шоссе висят щиты-экраны, на которых можно показывать любые рекламные заставки. И есть программа, которая отслеживает номера телефонов в радиусе ста метров, например. То есть система знает, кто едет по шоссе.

Дальше она анализирует связанную с этими номерами информацию: историю покупок, посещения сайтов и интернет-магазинов. Быстрый подсчет позволяет выводить на щиты рекламу, более актуальную для проезжающей в данный момент аудитории.

А откуда система берет информацию по телефонам, тем более с привязкой к магазинам и сайтам? Для этого нужно работать с какими-то специальными базами, магазинами данных?

— Интернет-сервисы обмениваются обезличенными данными в рамках закона. Системе управления рекламными щитами не нужны ваши имена и фамилии — ей достаточно знать ID, привязанный к SIM-карте. И она может получать от партнерских сервисов информацию по такому абстрактному пользователю. Купит ли владелец сервиса эти данные или обменяет «бартером» — второй вопрос. Это сложная тема, связанная с юридическими моментами, но в принципе организации у нас имеют право обмениваться неперсонифицированными данными.

Как выглядит карьерная лестница аналитика данных? Какие в этой сфере перспективы развития?

— Рядовой аналитик вырастает в тимлида — руководителя отдела или его подразделения. Главу отдела аналитики зачастую называют директором направления R&D (Research and Development) или отдела Data Science.

Можно стать начальником аналитического департамента или управления, если такие подразделения в компании есть. Плюс, естественно, есть градация Junior, Middle, Senior.

Какие проекты сделают студенты за время обучения? На странице факультета программа обучения есть, но интересно, как она будет раскрываться в реальных проектах.

— Из того, что уже утверждено, могу назвать четыре проекта:

  1. Предсказание цены на недвижимость (курс «Python для Data Science», первая четверть).
  2. Прогнозирование оттока клиентов сотового оператора (курс «BigData. Введение в экосистему Hadoop», вторая четверть).
  3. Построение модели кредитного скоринга для банка (курс «Машинное обучение. Часть 1», четвертая четверть).
  4. Рекомендательная система для интернет-магазина (курс «Машинное обучение. Часть 2», четвертая четверть).

— Про модель кредитного скоринга, телеком и рекомендательные системы мы уже говорили, а вот предсказание цены на недвижимость — это как будет выглядеть? Берется массив данных за некий период и постфактум анализируется?

Берем квартиры за определенный период времени. Известны их характеристики: метраж, этажность, количество комнат, местоположение дома, экология в районе и так далее. Строим модель предсказания цен — и после этого для других квартир можем в автоматическом режиме вычислять наиболее вероятную стоимость.

— Для проектов готовые большие данные студентам предоставят?

Да, студенты будут работать с готовыми датасетами.

— Сергей, спасибо, что рассказал о факультете и о работе аналитика Big Data. Я наконец поняла, чем на практике эта специальность отличается от смежных. Надеюсь, читатели тоже теперь лучше представляют себе профессию, о которой мы говорили.

Пройти обучение

15 май 19, 16:26
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

Большие данные и умные города: как подготовиться к будущему?

Это перевод статьи Big Data & Smart Cities: How can we prepare for them? Автор оригинала, Александр Гонфалоньери (Alexandre Gonfalonieri), пишет об ИИ, инновационных технологиях для бизнеса и общества.

Каждую неделю в города перебираются 1,3 миллиона человек, и можно ожидать, что к 2040 году 65 % населения мира станет городским. Причем 90 % роста численности горожан придется на страны Азии и Африки.

Последние несколько десятилетий эксперты пытаются повысить качество жизни в городах разными способами: от ввода платы за проезд по зонам с перегруженным движением до популяризации электровелосипедов (e-bikes).

Разговоров об умных городах много, но что стоит за этим понятием?

Умный город — тот, где с помощью передовых технологий расширен перечень доступных жителю услуг и оптимизирован каждый аспект городских мероприятий.

Какова роль больших данных в этой формуле?

Представьте: дисплей на приборной панели вашего автомобиля показывает предупреждение о том, что из-за погодных условий добраться до работы привычным путем будет трудно. Дальше программа перестраивает маршрут на основе показателей, которые отслеживает в реальном времени.

Вот вы въехали на крытую автостоянку, и бортовой компьютер уже подсказывает свободное парковочное место. При этом он учитывает, откуда вам будет ближе идти к работе, исходя из статистики предыдущих поездок.

Такой подход уже не будущее, а реальность. Большие данные (Big Data), интернет вещей (IoT) и распределенные датчики интенсивно внедряются в мегаполисах для реализации того, что многие называют городом будущего.

Это проявляется и в развертывании систем коммуникации: локальный fiber, муниципальный Wi-Fi, специализированные приложения для конкретных задач (умные парковки, уличное освещение, вывоз и переработка отходов).

В нескольких крупных городах мира уже выбрали подход, при котором во главе угла не конкретные приложения, а данные как связующий элемент.

Данные — кровь, которая бежит по венам умного города.

Общий фундамент

Чтобы стать умными, города должны отвечать одному общему требованию: собирать достоверную информацию (с датчиков), на основе которой можно вырабатывать решения на долгосрочную перспективу. Потому что данные — золото нашего времени.

Если встроить датчики в городскую инфраструктуру и создать новые точки сбора данных — в том числе от горожан с их мобильными устройствами, — администрация умного города сможет анализировать большие данные, чтобы более точно отслеживать и прогнозировать происходящее.

Пример датчика, полезного в управлении городом

Большие данные — богатый источник возможностей для развития городских сервисов. Упрощенно говоря, Big Data — это огромный массив данных, анализ которого позволяет бизнесу принимать стратегические решения и получать лучшие результаты.

Анализ больших данных незаменим, когда у вас горы информации и нужно отыскать в ней закономерности или неочевидные идеи, которые позволят сделать ценные выводы.

Для развития умных городов очень важны информационно-коммуникационные технологии (ИКТ): они обеспечивают доступ к данным, собранным с помощью информационных систем. Механизм, который будет особенно полезен умным городам, известен как интернет вещей (IoT). Он основан на взаимодействии между устройствами, которые обмениваются данными через интернет, беспроводные и другие сети.

Интернет вещей нужен умным городам, чтобы собирать и эффективно обрабатывать данные, которые затем можно применить в конкретной области. Городские датчики и другие подключенные к сети устройства получают данные из нескольких «перевалочных пунктов» и анализируют, чтобы упростить принятие решений.

А еще на жизнедеятельность городов очень повлияют облачные платформы и аналитические приложения. Они предлагают экономичные средства управления данными и решениями, связанными с работой транспорта. Это создает основу для построения более безопасных и полезных маршрутов на уже существующих дорогах.

Приложения машинного обучения принимают данные с подключенных устройств и в режиме реального времени передают их на смартфоны путешественников.

Три уровня данных

Первый уровень — технологическая основа, которая включает в себя критическую массу смартфонов и датчиков, подключенных к высокоскоростным каналам связи.

Второй уровень — особые приложения, которые превратят сырые данные в предупреждения, идеи и действия. Тут за дело берутся разработчики и поставщики технологии.

Третий уровень — использование городами, компаниями и населением. Многим приложениям для эффективной работы нужны массовое распространение и способность менять свое поведение.

Проблемы управления городом

Системные интеграторы города не могут собрать весь объем данных, который хранится по разрозненным базам и системам с ограничением прав доступа и использования.

В наших городах уже накоплены тонны информации, но большая ее часть используется для решения отдельных задач и не встроена в общую систему управления городом. К таким данным относятся официальная статистика, карты, сведения о публичных торгах и закупках.

Технологии способны произвести переворот по многим направлениям: сделать парковки удобнее, улучшить уличное освещение, оптимизировать транспортный поток, вывоз и сортировку мусора, задействовать умные системы безопасности, прогнозировать катастрофы. Но пока информация слишком фрагментарна. Нужно собрать все существующие стандарты на единой унифицированной платформе.

Будет ли город умным, зависит от способности организаций обмениваться данными и анализировать их. Только обмен ключевой информацией в реальном времени позволит компаниям частного и социального сектора разрабатывать приложения для автоматизации задач и софт для инфраструктуры умного города.

Проблема в том, что пока под каждый новый тип датчика зачастую нужна своя база данных, которую городу приходится закупать. Когда между сенсорами и БД нет эффективного и прозрачного взаимодействия, извлечь пользу из полученных данных практически невозможно.

Наконец, большое значение имеет цена решений: именно в финансирование упираются многие инициативы по развитию умных городов. Одно из главных препятствий, мешающих сдвинуть подобные проекты с места — первоначальные затраты на установку минимально необходимого числа датчиков, без которого нет смысла и начинать.

В реальных развивающихся городах действия не скоординированы, а данные до сих пор собираются вручную.

Улучшаем город с помощью данных

Проанализируем, как данные упрощают жизнь в городах мира.

В бывшей столице Китая, городе Нанкин, датчики установлены на 10 000 такси, 7 000 автобусов и на миллионе частных машин. Данные, которую удается собрать таким образом, ежедневно поступают в Информационный Центр Нанкина. Там эксперты централизованно отслеживают и анализируют сведения о транспортных потоках, а затем отправляют обновления на смартфоны (commuters). Это уже позволило властям города создать новые маршруты, которые улучшают транспортную ситуацию без строительства новых дорог.

Трениталия, главная железнодорожная компания Италии, установила датчики на поезда и теперь мгновенно узнает об изменениях в техническом состоянии каждого состава. Компании стало проще планировать ремонт поездов и действовать на опережение, предотвращая происшествия. Благодаря технологическим инновациям путешественники получили надежный и удобный сервис, а города избегают серьезных проблем.

В Лос-Анджелесе на протяжении 4,5 тысячи миль старое уличное освещение заменяют светодиодными лампами. Цель не только в том, чтобы стало светлее, но и в создании централизованной системы, которая будет информировать город о состоянии каждой лампочки. Когда одна из них перегорит, найти и заменить ее можно будет практически мгновенно. В будущем станет возможным, чтобы освещение меняло цвет или мигало для оповещения горожан.

Группы, объединяющие множество людей, генерируют тонны информации. Большие данные позволяют понять, когда, как и почему собираются толпы, а также предсказывать их поведение и перемещения.

Миллионы датчиков уже работают в крупных городах. В ближайшем будущем их число будет расти — до тех пор, пока они не охватят все: от уличных фонарей и урн до энергопотребления и дорожной ситуации.

Информационные вызовы

Чтобы эффективно управлять данными, недостаточно их собирать и хранить. Нужно передавать и объединять — делать их доступными департаментам, организациям или всему обществу.

В крупнейших городах США и других стран миллионы датчиков каждую миллисекунду, секунду, минуту, час и день создают невообразимый объем данных… Большая их часть никогда не используется.

Умные города должны строиться на сетях, в которых возможен свободный обмен информацией.

При развертывании умного города совместное пользование данными — это и обязательное требование, и ценная возможность. Ясно, что распределение данных между городскими департаментами и платформами — ключевой момент планирования.

Возьмусь сделать прогноз: большинство городов внедрят совместное пользование данными как промежуточный этап на пути от интеграции данных к информационному обмену, а затем и к магазинам данных.

Создание цифровой инфраструктуры

Лучший способ организовать совместное пользование данными — применять открытые API. Вместе с рынками данных — или наряду с ними — они упрощают обмен информацией и позволяют включать в экосистему новых партнеров. Вот почему API — важнейший элемент любой платформы для умного города.

Все чаще власти городов заказывают выпуск API, чтобы разработчики и общественные организации активнее пользовались открытыми данными.

Чтобы создать хорошую платформу умного города, нужно следующее:

ТехнологияНазначение

Сети Собирают данные
Полевые шлюзы Упрощают сбор и сжатие данных
Облачный шлюз Гарантирует безопасную передачу данных
Система потоковой обработки данных Сводит несколько потоков в озеро данных
Озеро данных Хранит данные, ценность которых еще предстоит определить
Хранилище данных Хранит очищенные и структурированные данные
Аналитические системы Анализируют и визуализируют информацию с датчиков
Машинное обучение Автоматизирует городские сервисы на основе долгосрочного анализа данных
Пользовательские приложения Соединяют умные вещи и горожан

Идеальная платформа для обмена данными

Система совместного пользования данными должна обеспечивать обмен «в облаках». Это обеспечит лучшую переносимость, безопасность и конфиденциальность при передаче данных, а также ускорит разработку и тестирование приложений. Благодаря своей универсальности платформа обеспечит эти преимущества всем приложениям, в том числе специализированным. А значит весь городской софт будет опираться на актуальные технологии.

Платформа должна поддерживать два режима обмена данными: публичный и приватный. Если в отдельных приложениях данные будут смешиваться, особенно важно будет отслеживать, как они используются, обеспечивать надежную систему безопасности и управления.

Наконец, необходимо извлечь выводы из данных — привести их к виду, понятному для людей, которым предстоит эти данные дальше обрабатывать и использовать.

Большие данные — ключевой элемент в работе над системами городского масштаба, всеохватными по числу подключенных устройств. Технологии обработки больших данных сыграют ведущую роль в развитии умного градостроения будущего.

Пройти обучение

1 фев 19, 15:35
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

История языков программирования: 2000-е

XXI век изменил общественное мнение о компьютерах. Ноутбуки, смартфоны, планшеты закрепились в технологической экосистеме. Массивные ящики системного блока и монитора воспринимались уже не просто как домашние компьютеры, а мощные машины, позволяющие создавать и запускать приложения, о которых в двадцатом столетии снимали фильмы.

Языки программирования сыграли важную роль в этих метаморфозах. Узнаем, какие из них появились в первом десятилетии XXI века и как способствовали прогрессу.

В начале 2000-х форм-фактор зачастую играл ключевую роль

Продолжение битвы

Начнем с того, на чем остановились в прошлой статье. Компания Microsoft в конце 90-х приступила к разработке C#, который должен был оспорить господство Java. Новый язык был представлен в 2000 году, но увидел свет только в 2002. Причина задержки заключалась не только в желании победить все «болячки» Java, но и в меняющихся тенденциях на рынке IT. Прежде в Microsoft ориентировались на создание десктопных приложений для Windows, но поняли, что это путь в никуда. Требовалась новая программная платформа, которая бы замкнула на себе множество языков, а также позволила работать с вебом, мобильными и стационарными устройствами. Так появилась .NET, представленная вместе с C# в 2000 году.

Этот шаг позволил в долгосрочной перспективе поднять интерес как к языку, так и ко всем продуктам Microsoft. Но компания уже допустила главный просчет. В конце 90-х ведущие производители мобильных устройств, среди которых — Nokia, Ericsson и Motorola, объявили о создании новой системы Symbian. Изначально она была закрытой, приложения писались на языках ассемблера и C, но долго игнорировать влияние Java было невозможно. Уже к началу 2000-х пользователи мобильных устройств могли устанавливать приложения на базе Java ME (ограниченной версии языка). Пока C# собирал аудиторию, Java уже работал на каждом втором смартфоне. Microsoft еще долго будет пытаться переломить эту ситуацию, но так и не преуспеет.

Зато у C# прекрасно пошли дела в игровой сфере. Как и сегодня, в 2000-х среди консольных приставок основная борьба разворачивалась между Sony PlayStation и Microsoft Xbox. Первая использовала в качестве базы C и язык ассемблера, потом перешла на собственный скриптовый язык. Фактически, Sony PlayStation была закрыта для сторонних разработчиков. Продукт компании Microsoft опирался на C++ и C# — в частности при работе с графическим движком Unity. Популярность C# возросла, но догнать Java так и не получилось: конкурент имел серьезное влияние на веб, а к концу десятилетия стал фундаментом системы Android.

Масла в огонь подливали и новообразованные языки. К примеру, Groove, работающий на базе JVM, подтягивал синтаксис Java к простоте Python, сохраняя функциональность — поэтому привлек внимание. Менее известные примеры: Whiley, AspectJ, Join Java, Tea. Свою нишу занял и появившийся в 90-х JavaScript.

Новый вектор обучения

Создание языков программирования для обучения — тенденция, берущая начало в 60-х годах. В первом десятилетии XXI века появился ведущий «детский» язык — Scratch. Разработанный в MIT, он позволял на основе простых графических блоков создавать анимацию. Первые 10 лет существования не принесли языку заслуженной славы. Дело в концепции, согласно которой программировать приходилось непосредственно в браузере. Из-за ограничений на трафик и скорость начинающие программисты со всего мира не могли себе позволить долго возиться с этим продуктом.

Виток функционального программирования

Функциональное программирование было актуальным решением в начале эпохи персональных компьютеров. Тогда сложные коды, привязанные к конкретным данным, было разумно замещать моделями, сокращая объем кода и увеличивая производительность. Новые языки и появление полноценного ООП заставили большинство разработчиков вернуться к императивному программированию, оставив за функциональным роль дополнения. Но в XXI веке все изменилось.

Частично этому способствовала новая волна маломощных машин (смартфонов). Высокие требования при скромной производительности вынуждали программистов мыслить функциями, а не привязываться к данным. Частично на популярность ФП повлиял новый язык — Clojure, диалект Lisp, работающий на основе виртуальной машины Java. Он будто связал десятилетия, позволив в новой эре применить известные принципы ФП. Чуть позже появился еще и ClojureScript для работы с JavaScript. Это был сигнал разработчикам языков: пора вводить возможности полноценного функционального программирования.

Big data

В 2008 году редактор журнала Nature Клиффорд Линч ввел понятие «большие данные». Этот термин он использовал при анализе растущего объема информации, поступающей в сервисы и социальные сети. Ведущие компании столкнулись с проблемой: необходимо было придумывать новые методы обработки и хранения данных, чтобы отвечать потребностям общества. Частично это решалось функциональным программированием, но требовались и новые специализированные языки.

Компания Google нашла выход в использовании нейронных сетей и языка для обработки данных — Go. Он должен был стать полноценной альтернативой C и C++, улучшив читаемость кода, документируемость, скорость сборки программ и множество других аспектов. Go так и не стал панацеей, но заслужил репутацию удобного и надежного инструмента для сложных разработок.

Гонка мобильных вооружений

Чтобы понять, насколько быстро менялись технологии в первом десятилетии XXI века, достаточно вспомнить события на рынке мобильных телефонов. Он стартовал с огромными черно-белыми «коммуникаторами» под управлением закрытых операционных систем. Им на смену пришли кнопочные «смартфоны» с Symbian. Уже к концу десятилетия все эти наработки устарели — на рынке сенсорных аппаратов бушевала битва iOS и Android.

Аппараты Android работали, опираясь на язык Java, и с первого дня существования системы пользователи могли писать под нее приложения. Почти все базовые приложения Android — результат международного конкурса разработчиков, который устроил Google за год до официального запуска платформы.

В Apple избрали другой путь — использовать собственные наработки. Objective-C был создан в 80-х как одно из множества ответвлений языка С. Возможно, он так и канул бы в ХХ веке, если бы не приглянулся разработчикам компании NeXT и операционной системы NEXTSTEP. Компьютер NeXTcube собрал массу положительных отзывов, но не получил распространения из-за высокой стоимости проекта.

Главой NeXT был Стив Джобс. Он не только удержал компанию на плаву и выгодно продал ее Apple, но и внедрил все наработки в «яблочные» продукты. Надежность и быстродействие стали визитной карточкой Mac OS и iPhone OS.

В отличие от Android, который имеет открытый исходный код, системы Apple изначально были закрытыми для сторонних разработчиков. Компания выпускала средства разработки приложений после того, как оценивала заинтересованность в продуктах. Так случилось и с MacOS: Xcode была представлена спустя 2 года после платформы, — и с iOS: через год была обнародована SDK. Разумеется, исходные коды при этом не открывались и разработчики не получали полной свободы в персонализации. Родилось главное идеологическое противостояние в  IT 2010-х годов: анархическая свобода против бесконечных ограничений, массовость против качества, доступность против безопасности.

Поговорим об этом в следующей статье.

Пройти обучение

29 июн 18, 11:03
0 0
Статистика 1
Показы: 1 Охват: 0 Прочтений: 0
Показаны все темы: 7

Последние комментарии

нет комментариев
Читать

Поиск по блогу

Люди

7 пользователям нравится сайт lena2018.mirtesen.ru