Программа

Программа предварительная, в ней возможны изменения.

Чтобы посмотреть описание доклада, щелкните на название. Все доклады с кратким описанием — здесь.

К началу

11 октября. День 1

Время UTC+03:00  & Трек
Доклад
Трек 1
Трек 2
Трек 3

Вы пока не добавили ни одного доклада в Избранное

16:45 - 17:00

Открытие

17:00 - 18:00
17:00 Трек 1
17:00 Трек 2
DWH как продукт
Евгений Николаев
Авито
#dataasaproduct  #process 
17:00 Трек 3
18:00 - 18:30

Перерыв

18:30 - 19:30
18:30 Трек 1
Delta Lake data layout optimization
Sabir Akhadov
Databricks Inc
#storageoptimization  #storage 
18:30 Трек 2
18:30 Трек 3
19:30 - 20:00

Перерыв

20:00 - 21:00
20:00 Трек 1
Lessons learned from using machine learning to optimize database configurations
Andy Pavlo
Carnegie Mellon University
#perfomance  #datastorage  #databaseoptimization  #tuning 
20:00 Трек 2
20:00 Трек 3
Trino (Presto) DB: Zero copy lakehouse
Артем Алиев
Huawei
#queryoptimization  #datavirtualisation  #queryengine  #tooling 

12 октября. День 2

Время UTC+03:00  & Трек
Доклад
Трек 1
Трек 2
Трек 3

Вы пока не добавили ни одного доклада в Избранное

17:00 - 18:00
17:00 Трек 1
An experience report on strategies for working with Cloud Storage
Tejas Chopra
Netflix
#storageoptimization  #cloud  #architecture 
17:00 Трек 2
18:00 - 18:30

Перерыв

18:30 - 19:30
18:30 Трек 1
18:30 Трек 2
18:30 Трек 3
19:30 - 20:00

Перерыв

20:00 - 21:00
20:00 Трек 1
How to bring advanced analytics to hybrid data storage with Vertica
Gianluigi Vigano
Vertica
Maurizio Felici
Vertica
Marco Gessner
Vertica
#process  #datavirtualization  #architecture  #database  #storage  #queryengine 
20:00 Трек 2
20:00 Трек 3

13 октября. День 3

Время UTC+03:00  & Трек
Доклад
Трек 1
Трек 2
Трек 3

Вы пока не добавили ни одного доклада в Избранное

17:00 - 18:00
17:00 Трек 1
17:00 Трек 2
Вставить в ClickHouse и не умереть
Артем Шутак
Mail.ru Group
#storage  #dataingestion  #optimization 
18:00 - 18:30

Перерыв

18:30 - 19:30
18:30 Трек 1
Dremio SQL Lakehouse: Быстрые данные для всех
Виктор Кесслер
Dremio
#queryoptimization  #lakehouse  #queryengine  #datalake  #tooling 
18:30 Трек 2
19:30 - 20:00

Перерыв

20:00 - 21:00
20:00 Трек 1
20:00 Трек 2
20:00 Трек 3

14 октября. День 4

Время UTC+03:00  & Трек
Доклад
Трек 1
Трек 2
Трек 3

Вы пока не добавили ни одного доклада в Избранное

17:00 - 18:00
17:00 Трек 1
17:00 Трек 2
17:00 Трек 3
18:00 - 18:30

Перерыв

18:30 - 19:30
18:30 Трек 1
Create a git-like experience for Data Lake analytics
Itai Admi
Treeverse
#datavirtualisation  #tooling 
18:30 Трек 2
18:30 Трек 3
19:30 - 20:00

Перерыв

20:00 - 21:00
20:00 Трек 1
20:00 Трек 2
20:00 Трек 3
21:00 - 21:15

Закрытие

Несмотря на психологическое образование, за 14 лет Паша успел поработать в куче сфер в IT — системное администрирование, разработка, менеджмент разных уровней, дата инжиниринг, в общем, так или иначе, касался почти всего, что в IT существует. Начал практиковать DevOps-практики больше 10 лет назад и никогда не концентрировался на чём-то одном.

Сейчас Паша работает в компании JetBrains над разработкой Big Data Tools — инструментами для того, чтобы делать жизнь дата инженеров проще.

Очень общительный, любит и понимает людей, и всегда рад ответить на любые вопросы.

Maurizio Felici

Vertica Field Chief Technologist. Maurizio has started writing complex code in Fortran in 1985 during his Master’s Degree in Physics when he has built sensors and software to capture and analyse gravitational waves signals. Maurizio has started working in 1986 coding Unix device drivers. In 1992 Maurizio has started working with databases and has implemented his first large Data Warehouse in 1998 when he was in Oracle. In 2006 Maurizio has joined Hewlett-Packard and started working with large MPP databases. In 2011 he begun working with Columnar Databases in Vertica. Maurizio knows several databases, many programming languages and different Data Warehouse Architectures. He has coded several tools in order to: move data from one database to another, assess database throughput and analyse Query Performance. Maurizio has also contributed to the development of the Vertica Federated Queries.

Marco Gessner

Vertica Field Chief Technologist. Worked with relational databases since 1989; with data warehouses since 1992/1993. Worked for Vertica ever since HP bought Vertica in 2011. Specializes in Big Data architectures and data warehousing ecosystems.

Gianluigi Vigano

Gianluigi is a Software Engineer, located in Milan. His expertise lies in Data Architecture with a focus on Information Extraction. He contributes with the R&D team to increase Vertica integration with the opensource ecosystem (Hadoop, Kafka, Spark…). Before joining Vertica, Gianluigi worked in several Information Technology companies, as a System Engineer and Technical Architect for parallel cluster and parallel databases architectures.

Инженер по инфраструктуре с почти 10-летним опытом разработки ПО с использованием различных языков и платформ программирования. Около 8 лет опыта программирования на Python и примерно 3 года использования Go, хорошо владеет веб-технологиями.

Обучение, наставничество; написание и перевод статей по Python, Linux, Big Data, облакам, нетворкингу и алгоритмам. Имеет опыт в работе с распределенными и высоконагруженными системами, сетью, алгоритмами, многопоточностью/параллелизмом, планированием мощности и базовым статистическим анализом данных.

Максим Стаценко

«Если искусственный интеллект — это наше будущее, то большие данные — это уголь того паровоза, на котором мы в него въедем».

Максим 10 лет занимается обработкой, хранением, анализом и визуализацией данных. За это время делал проекты для гос.проектов (РЦОИ), энергетический сектор (ГазПром, МОЭК), банки (БРК, ВТБ24) и IT-гиганты (Yandex, Mail.Ru). Большие данные — это его работа и хобби, готов говорить о них бесконечно.

Николай Гребенщиков

Более 15 лет опыта работы в ИТ-сфере. Последние 1,5 года развивает хранилище данных в Яндекс Go. Специализируется на MPP СУБД Greenplum.

Более 10 лет опыта работы в ИТ-сфере. Архитектор хранилищ данных и систем анализа в Mail.ru Group и Яндекс Go. Кандидат технических наук, автор более 10 работ в области анализа данных, соавтор монографии по теории и практике анализа параллельных баз данных.

Эксперт Huawei в области технологий больших данных и графических баз данных. До этого интегрировал Spark, TinkerPop, Cassandra в Datastax, возглавлял команду по оптимизации производительности систем хранения в EMC и разработал Apache Harmony J2SE.

Николай Голов

Глава Data Engineering в ManyChat, отвечает за все пайплайны и платформу данных для аналитики (хранилище, BI, ETL, интеграционные сервисы). Раньше был руководителем Data Platform в Avito. В область ответственности Data Platform входили системы больших данных, OLTP-базы (PostgreSQL), NoSQL-базы (MongoDB, Redis, Tarantool, VoltDB), а также системы очередей и потоковой обработки данных (RabbitMQ, NSQ, Spark). Также Николай преподает в НИУ ВШЭ, где занимается научными исследованиями в области современных методологий построения хранилищ данных (Data Vault и Anchor Modeling) и изучает BlockChain.

Дмитрий Бугайченко

Окончил Санкт-Петербургский государственный университет в 2004 году, там же защитил кандидатскую по формально-логическим методам в 2007. Почти 9 лет проработал в аутсорсинге, не теряя контакта с университетом и научной средой. Анализ больших данных в Одноклассниках стал для Дмитрия уникальным шансом совместить теоретическую подготовку и научный фундамент с разработкой реальных, востребованных продуктов. И этим шансом он с радостью воспользовался, придя туда пять лет назад. С 2019-го года присоединился к дружной команде Сбербанка.

Владимир Озеров является основателем Querify Labs, где руководит исследованиями и разработкой инновационных продуктов управления данными для технологических компаний. До этого Владимир более восьми лет работал над in-memory дата-платформами Apache Ignite и Hazelcast, уделяя особое внимание распределенной обработке данных. Является коммиттером проектов Apache Calcite и Apache Ignite.

Tejas Chopra

Tejas Chopra is a Senior Software Engineer, working in the Data Storage Platform team at Netflix, where he is responsible for architecting storage solutions to support Netflix Studios and Netflix Streaming Platform. Tejas has worked on distributed file systems & backend architectures, both in on-premise and cloud environments as part of several startups in his career. Tejas is an International Keynote Speaker and periodically conducts seminars on Micro services, NFTs, Software Development & Cloud Computing and has a Masters Degree in Electrical & Computer Engineering from Carnegie Mellon University, with a specialization in Computer Systems.

Sabir Akhadov

Sabir is a software engineer at Databricks working on optimizing physical data layouts for the best performance. Before that, he worked in Databricks performance engineering and benchmarking team.

Sabir was born in Kazakhstan and since then has lived in 4 different countries. He's interested in learning new languages, technologies, and sports, mostly powerlifting and Russian kettlebells.

После многих лет в разработке ПО в качестве программиста, руководителя разработки, энтузиаста DevOps и архитектора, Александр сосредоточился на облачных вычислениях и распределённых системах. Профессиональный архитектор облачных решений и Developer Advocate для Apache Cassandra в Datastax, всегда рад поделиться опытом в проектировании высокопроизводительных и отказоустойчивых систем.

Ash has been a contributor to Airflow for almost four years and is a member of the Project Management Committee (a.k.a. the Core team) for almost as long. He was the Release Manager for much of the 1.10 release series and he also re-wrote much of the Scheduler internals to be highly-available and increase performance by an order of magnitude (AIP-15).

Outside of Airflow he is the Director of Airflow Engineering at Astronomer.io where he runs the team of developers contribute to the open source Airflow project.

Andy Pavlo is an Associate Professor of Databaseology in the Computer Science Department at Carnegie Mellon University. He is also the co-founder of OtterTune.

Jacek is an IT freelancer specializing in Apache Spark, Delta Lake, Apache Kafka and Kafka Streams (with brief forays into a wider data engineering space, e.g. Presto). Jacek offers software development and consultancy services with very hands-on in-depth workshops and mentoring. He is best known by his online books available free of charge at https://books.japila.pl/.

Valerie Wiedemann

Valerie began her career as Pre-Sales Engineer at EXASOL in 2018. At the start of actively technically consulting prospects — future customers of Exasol. Her responsibilities included deep dive into EXASOL's product capabilities and features, preparing testing environments, delivering POCs, and building SOWs for Data Warehouse migrations into EXASOL. The portfolio of customers Valerie worked with some largest insurance and retail organizations in Germany and Central Europe.

Андрей Терехов

Инженер с более чем 10-летним стажем в IT. Последние 4 года занимается распределенными системами и в частности системами поставки данных, постепенно объединил разрозненные системы поставки данных в единый сервис кросс-системной поставки данных — Yandex DataTransfer.

Окончила ВМК МГУ. Более 14 лет опыта в ИТ-индустрии в финтех и телеком компаниях в качестве разработчика, архитектора, эксперта по data governance и владельца продукта. Сейчас строит MLOps-платформу в МТС.

Николай Трошнев

10 лет работал в МТС, в аналитике данных и численном маркетинге, маркетинговая стратегия, затем руководил функциями data science и data governance, команда Big Data. 1,5 года был исполнительным директором — главный исследователь данных (CDS) Сбер, работал с проблемными активами. 2 года проработал как лидер команды Big Data Социального блока Правительства Москвы. Сейчас Николай — частный консультант, открыт для новых проектов.

Валдис Пукис

Пытался сделать что-то полезное с данными с 1993 года как DBA, руководитель группы DBA и разработчик DB/DWH. Пережил взлеты и падения различных подходов к обработке данных. Сегодня Валдис руководитель группы обработки данных в Evolution.

Дмитрий Ибрагимов

Если «данные – это новая нефть», то Дмитрий отвечает за все шаги по работе с этой нефтью – от бурения скважин и добычи, до переработки и транспортировки. Дмитрий занимается построением и поддержкой хранилищ и озер данных в компаниях и стартапах на технологическом стеке Apache (Hadoop, Hive, Impala, Spark) в течение последних 8 лет. В Леруа Мерлен построил платформу данных с хранилищем на ~500TB на базе DWH Greenplum, с озером поверх S3, ETL-инструментами NiFI и Flink и операционным слоем в Clickhouse. Фанат open source и просто хороший собеседник.

Последние 5 лет работает в области Big Data. В этой сфере сталкивался с абсолютно разными проектами: от публикаций бенчмарков NoSQL баз данных до написания пайплайнов. В данный момент работает в компании Profitero в качестве техлида дата-инженеров. В свободное время старается принимать участие в различных опенсорсных проектах.

Выпускник МФТИ, из физики перешел в создание IT-продуктов.
Руководил AI-продуктами в Газпромбанке и Открытии. Сооснователь стартапа COVI Retail. В данный момент занимается в МТС-проектами с EDGE компьютерным зрением.

Основатель НКО Инфокультура, созданный для популяризации открытости данных, государства, цифрового сохранения и других близких технологических общественных тем. Также развивает стартап APICrafter/DataCrafter по созданию каталогов и озер данных, в первую очередь на открытых данных.

До этого много лет Иван создавал государственные, частные и общественные информационные системы и ИТ-продукты.

Екатерина Колпакова

Руководитель DWH в Ситимобиле. Разрабатывала DWH (BigData) в Tinkoff и Mail.Ru Group. Преподаватель открытого курса «Проектирование хранилищ больших объемов данных» в Технопарке Mail.Ru при МГТУ им. Баумана и МГУ им. Ломоносова.

DataStore Enthusiast, Doodle Maker, Tango Lover & fellow coder.

Currently a senior data engineer at eyeota.com — the world's largest audience data marketplace. Formerly at Flipkart.com — India's largest e-commerce company, was part of its data team, MySQL engineering team, website & warehouse/order management teams.

Christian Langmayr heads the development of the global Exasol Community with End Customers, Academics, Partners, and technology Alliances. He is passionate about keeping and growing the special spirit that goes beyond the software developed and strives for positive interactions between all parties to drive the development of individuals involved. He has more than 15 years of experience in the IT industry with previous positions in MicroStrategy and Toshiba. Christian holds a degree in Business Administration from the Catholic University in Eichstätt, specializing in Services Management and Marketing. His focus is on supporting business growth, improving processes, and developing a data analytics ecosystem that empowers Exasol to grow in its relevant markets.

Евгений Николаев

Окончил факультет ВМК МГУ в 2015 году. Больше 6 лет работал программистом, более 3 лет руководит командами. Сейчас является руководителем юнита DWH в компании Авито. Фанатеет от классных продуктов и реализовывает стратегию DWH как продукт. В свободное время играет в футбол (капитан ФК Авито), шахматы (КМС) и учит испанский (B2).

Сергей Ярымов

Data Engineer в МТС Big Data, руководит группой разработки платформы данных. Строил ETL-платформу для внутреннего fintech-стрима, участвовал в качестве TechPM в развитии продукта BDaaS (Big Data as a Service), принимал участие в разработке Big Data ETL framework. Теперь строит Feature store.

Ton is an Engineer passionate about Machine Learning and AI. Before joining Synthesized, he worked for a challenger bank in the UK improving their decision process by exploiting their data, and before that, he obtained his MSc in Artificial Intelligence at the University of Edinburgh.

Николай Валиотти

Кандидат экономических наук, работал в крупнейших российских компаниях: строил аналитику в сети «Лента», отвечал за аналитические процессы в Yota, занимался прогнозированием в «Балтике», руководил отделом аналитики, а затем департаментом маркетинга в Юлмарте, руководил направлением Data & BI в US компании Airpush. В 2019 году основал компанию Valiotti Analytics, где осуществляет аналитический консалтинг для мобильных и digital-старапов. Сооснователь opensource self-service BI-платформы Mprove. Автор блога leftjoin.ru.

Кирилл Рыбачук

8 лет в индустрии машинного обучения, 4 года в разработке систем компьютерного зрения в Cherry Labs. Интересуется созданием пайплайнов ML, оптимизацией моделей, автоматизацией и гибкостью инструментов для нужд разработки и исследований.

Дмитрий Зуев

Пишет на Scala с 2014 года, разрабатывал всё: от банальных CRUD API до распределенных statefull-сервисов.
В последние годы занимается DE в самых разных его ипостасях.

Вадим Суханов

Последний год работает в команде Big Data в Tele2: делает пайплайны, развивает внутренние фреймворки, начинает контрибьютить в Airflow. Ранее несколько лет проработал разработчиком и лидом в Циан, стоял у истоков его бурного развития и занимался разработкой многих фичей, существующих на сайте.

Сергей Юнк

Более 5 лет работает в сфере DevOps и SRE. Ранее занимался развитием Observability и IaaC-направлений в рамках «ТК Центр». В настоящий момент помогает в разработке собственного дистрибутива Hadoop в компании Tele2. Также активно развивает SaaS-подход в BigData-сфере.

Михаил Солодягин

Более 6 лет занимается внедрением DevOps-практик и повсеместной автоматизации. Один из разработчиков SaaS-облака Бит.Лайв, успешно победил древний ручной монолит «ТК Центр», пересадив его на удобные IaaC-рельсы. Сейчас участвует в разработке Hadoop-дистрибутива в компании Теле2, а также занимается развитием SaaS/PaaS-решений в BigData-подразделении.

Денис Ефаров

Работает в BigData, в основном с Hadoop с 2013 года, сейчас ведущий разработчик в Mail.ru Group. С 2018 занимается проектированием и разработкой платформы для хранения и обработки статистических данных для проекта Одноклассники.

Артем Шутак

IT-инженер и архитектор с 10-летним стажем. Последние 7 лет занимается распределенными системами в целом и Big Data в частности. Сейчас Артем ведущий разработчик в Mail.ru Group/OK.RU, в команде Data Platform. До этого в течение 4 лет работал с данными в Grid Dynamics и прошел путь от Data Engineer до Data Architect. Являлся full-time-контрибьютером в Apache Ignite, поэтому имеет хорошее представление о том, как распределенные системы работают изнутри.

Роман Кондаков

Делал распределенный SQL для Apache Ignite в компании Gridgain. Немного поработал в Яндексе, где занимался Yandex Query Language. Сейчас работает в компании Querify Labs, где они консультируют технологические компании по созданию баз данных.

Itai Admi

Itai is an R&D team leader at Treeverse, the company behind open source lakeFS. He thrives on finding creative solutions for complex problems, especially if it involves code. Previously, Itai worked at Microsoft and Ridge on data infrastructure, tooling, and performance. Itai received his B.S. degree in Computer Science and an MBA from Tel Aviv University.

Дмитрий Аношин

Лидер аналитики и инжиниринга данных с более чем 10-летним опытом работы в сфере бизнес-аналитики, хранилищ данных и интеграции данных, больших данных, облака и машинного обучения в Северной Америке и Европе.

Помимо работы, преподает курс облачных вычислений в Университете Виктории, наставляет старшеклассников на факультете компьютерных наук и посвящает свое время обучению людей навыкам, инструментам и профессиям аналитики в странах СНГ. Кроме того, является автором книг по аналитике и спикером на конференциях и в группах пользователей, связанных с данными.

Ведет популярный в России Телеграм-канал по современным аналитическим решениям: @rockyourdata

До прихода в Dremio, Виктор работал в MongoDB, ERGO, PwC и SAP в качестве архитектора в проектах на темы больших данных, DWH и цифровой трансформации.