Владимир Б.
Описание проекта(Альфа банк) Платформа для сбора, обработки и анализа данных из разных систем с целью поддержки бизнес-решений и отчетности. Обязанности - Сбор, очистка и подготовка данных с использованием SQL (Oracle, PostgreSQL) и Python - Создание и автоматизация отчетов и дашбордов для ключевых метрик и показателей - Анализ качества данных и выявление аномалий (Data Quality) - Поддержка и взаимодействие с командой разработчиков ETL и инженеров данных (Airflow, Informatica) - Работа с BI-инструментами и визуализация данных - Участие в проектировании структуры данных и корпоративного хранилища (КХД) - Ведение документации и задач с помощью Atlassian (Jira, Confluence, Sourcetre, Bitbucket) Достижения - Оптимизировал процессы подготовки данных, сократив время формирования отчетов - Улучшил качество данных путем внедрения автоматических проверок и метрик - Реализовал понятные и наглядные дашборды для разных бизнес-подразделений - Обеспечил своевременную коммуникацию и выполнение требований аналитики внутри команды Команда 2 Аналитика данных, 3 Data Engineer, 2 BI Analyst Стек технологий SQL (Oracle, PostgreSQL), Python, Apache Airflow, Informatica, Atlassian (Jira, Confluence, Sourcetree, Bitbucket), BI-инструменты, Data Quality. - Визуализация данных продукта или бизнеса в аналитических дашбордах
Описание проекта Платформа для автоматизации процессов обработки данных и построения корпоративного хранилища на базе Oracle и PostgreSQL. Включала настройку ETL-процессов, контроль качества данных и интеграцию с бизнес-подразделениями. Обязанности - Создание и управление DAG в Apache Airflow для автоматизации обработки данных - Написание и оптимизация сложных SQL-запросов для Oracle и PostgreSQL - Администрирование Jira, Confluence и Bitbucket для управления задачами и документацией - Сопровождение ETL-инструмента Informatica для интеграции данных - Настройка CI/CD процессов на TeamCity для автоматизации релизов и деплоя - Разработка и внедрение проверок качества данных на стадии наполнения и обработки - Формирование бизнес-требований и приемочных критериев для команды 1С, обеспечивающей выгрузку в ODS - Передача проверенных данных бизнес-подразделениям для аналитики и отчетности Достижения - Обеспечение высокого качества данных от источника до передачи бизнесу - Своевременная и надежная поставка информации для управленческих решений - Оптимизация ETL-процессов, что повысило производительность и стабильность системы Команда 5 человек: Аналитики, 1С-разработчики, Data Engineer Стек технологий Python, Apache Airflow, Oracle, PostgreSQL, Informatica, SQL, TeamCity, Jira, Confluence, Bitbucket - Визуализация данных продукта или бизнеса в аналитических дашбордах
Работа в MS SQL, в Excel и продажа банковских продуктов(в том числе продуктов экосистемы) Организация рабочего процесса все новых сотрудников
Описание проекта Платформа для аналитики и управления данными с интеграцией Hadoop-экосистемы и BI-инструментов. Фокус на обработке, контроле качества данных и автоматизации процессов. Обязанности - Написание сложных SQL-запросов в ClickHouse, PostgreSQL, MSSQL и др. - Вытягивание и агрегация данных из ClickHouse (КХД) для последующего анализа - Работа с Hadoop (PySpark, Hive, HDFS) для обработки больших данных - Аналитическая обработка данных на Python (pandas, numpy, matplotlib) - Контроль и улучшение качества данных (Data Quality) - Управление проектом и документацией с помощью Jira, Confluence, Bitbucket - Создание и управление DAG в Apache Airflow для автоматизации обработки данных - Разработка и поддержка OLAP-куба для многомерного анализа данных - Создание отчетов и визуализаций в BI-инструментах Достижения - Оптимизировал извлечение и обработку данных из ClickHouse, что ускорило аналитические процессы - Повысил качество данных и их достоверность для принятия решений - Автоматизировал процессы, уменьшив количество ручных ошибок и ускорив подготовку данных - Внедрил BI-решения, обеспечив удобное представление информации для бизнес-пользователей Команда 4 Data Engineers, 3 аналитика Стек на проекте ClickHouse, PostgreSQL, MSSQL, Python (pandas, numpy, matplotlib), PySpark, Hive, HDFS, Apache Airflow, Jira, Confluence, Bitbucket, BI-инструменты
- Работал в Python в таких библиотеках, как Pandas, Openpyxl, Numpy и т д, - Работал с Airflow, как планировщик задач и работа в SQL(PostgreSQL и MSSQL) - Работал с Bi-инструментами - Работал с веб-аналитикой (Google Analytics, Яндекс.Метрика, Amplitude) и интеграции данных из разных источников
Работа в SQL и в Excel - Работал в MSSQL, как планировщик задач - Работал в PostgresSQL - Работал в Excel, в том числе с Data Quality
Работа в MS SQL, PostgreSQL и в Excel
Понравился профиль? Создайте себе такой же