Опыт использования Oracle Essebase+ при работе с большими объемами данныхКРОК
Семинар «7 шагов к построению системы CPM».
Подробнее о мероприятии http://www.croc.ru/action/detail/1642/
Презентация Романа Удальцова, консультанта по внедрению бизнес-приложений компании КРОК
Опыт использования Oracle Essebase+ при работе с большими объемами данныхКРОК
Семинар «7 шагов к построению системы CPM».
Подробнее о мероприятии http://www.croc.ru/action/detail/1642/
Презентация Романа Удальцова, консультанта по внедрению бизнес-приложений компании КРОК
Продукт HP Vertica является системой управления базами данных, работающей по принципам массивной параллельной обработки и разработанной специально для хранения и обработки больших объемов данных.
HP Vertica поддерживает язык SQL, стандартные интерфейсы доступа к данным ODBC, JDBC, ADO.NET, а также содержащий множество коннекторов к различным инструментам бизнес-аналитики и анализа данных.
Кластер СУБД HP Vertica состоит из узлов стандартной архитектуры x86, объединенных сетевым соединением. Все узлы кластера являются равноценными, любой из узлов кластера может принимать и обслуживать запросы пользователей, а также выполнять загрузку данных.
"PostgreSQL для разработчиков приложений", Павел Лузанов, (Постгрес Профессио...Badoo Development
DevConf 2016
"PostgreSQL для разработчиков приложений", Павел Лузанов, (Постгрес Профессиональный)
Что нужно знать разработчику приложений о базах данных вообще и PostgreSQL в частности? Может быть достаточно основ SQL? А может во всём положиться на ORM?
Несмотря на кажущуюся простоту работы с базами данных, для качественной реализации приложений необходимы знания по самому широкому кругу тем:
- Нормализация и денормализация данных
- Типы данных и ограничения целостности
- Хранимые процедуры и триггеры
- Аналитические функции и CTE
- Транзакции и уровни изоляции
- Материализованные представления и секционирование
- Типы индексов и как их использовать
- Методы доступа к таблицам и способы их соединения
- Сбор статистики и планы выполнения запросов
А нужны ли разработчикам знания об основах администрирования и архитектуре СУБД в целом? Нужно ли понимать что и для чего делает VACUUM?
Доклад в первую очередь адресован разработчикам и архитекторам приложений, но также будет интересен администраторам баз данных и всем “сочувствующим”.
DataScienceLab2017_Высокопроизводительные вычислительные возможности для сист...GeeksLab Odessa
DataScience Lab, 13 мая 2017
Высокопроизводительные вычислительные возможности для систем анализа данных
Михаил Федосеев ( Архитектор инфраструктурных решений, LanTec)
В докладе мы поговорим о hardware стороне систем анализа данных для случаев построения приватных облаков или локальных высокопроизводительных вычислительных кластеров. Рассмотрим какие технологии и комплексные решения от компании Hewlett Packard Enterprise позволяют ускорить процесс анализа данных. Это не только зарекомендовавшие в своей области лучшие в своем сегменте сервера линейки HPE Apollo, а так же высокоскоростные сетевые коммутаторы HPE, но и дополнительные вспомогательные элементы решения, такие как мощные графические карты NVIDIA и хост-процессоры Xeon Phi. Так же будет рассмотрен стек HPE Core HPC Software Stack, который позволяет администраторам контролировать использование ресурсов системы.
Все материалы доступны по ссылке: http://datascience.in.ua/report2017
Презентация доклада Ильи Сотникова "Планируем резервное копирование и восстановление SharePoint. С чего начать?" с конференции SharePoint Conference Ukraine 2012
Дедупликация. Нет громоздким ленточным библиотекамКРОК
Вебинар «Решения ЕМС начального уровня: как упаковать Ваш ЦОД в одну стойку»
Подробнее о мероприятии http://www.croc.ru/action/detail/9603/
Презентация Верчёнова Сергея, инженера компании КРОК
Вебинар «Что нужно и что не нужно делать при проектировании инфраструктур для...Fujitsu Russia
На вебинаре Сергей Масленков и Николай Гришин подробно рассказали об особенностях проектирования и работы инфраструктуры, обеспечивающей поддержку in-memory-СУБД SAP HANA и ответили на многочисленные вопросы.
Gobblin как ETL-фреймворк / Иван Ахлестин (Rambler&Co)Ontico
HighLoad++ 2017
Зал «Москва», 8 ноября, 12:00
Тезисы:
http://www.highload.ru/2017/abstracts/2855.html
В своем докладе расскажу об ETL, как об общем классе задач извлечения, подготовки и доставки данных.
Поймем, какую нишу ETL занимает в мире BigData, какие существуют подходы и инструменты для операций над большими данными и какие требования могут к ним предъявляться.
Разберемся с тем, что такое Gobblin, открою нашу историю успеха по его внедрению и применению в отделе машинного обучения Rambler&Co, а также решаемые им задачи.
...
ERP-системы в облаке: разбор кейсов DataLineDataLine
Рассматриваем реальные кейсы виртуализированных ERP-систем в ритейле, e-commerce и промышленности и изучаем "подводные камни" на примере Oracle E-Business Suite, SAP ERP и Microsoft Dynamics AX.
Продукт HP Vertica является системой управления базами данных, работающей по принципам массивной параллельной обработки и разработанной специально для хранения и обработки больших объемов данных.
HP Vertica поддерживает язык SQL, стандартные интерфейсы доступа к данным ODBC, JDBC, ADO.NET, а также содержащий множество коннекторов к различным инструментам бизнес-аналитики и анализа данных.
Кластер СУБД HP Vertica состоит из узлов стандартной архитектуры x86, объединенных сетевым соединением. Все узлы кластера являются равноценными, любой из узлов кластера может принимать и обслуживать запросы пользователей, а также выполнять загрузку данных.
"PostgreSQL для разработчиков приложений", Павел Лузанов, (Постгрес Профессио...Badoo Development
DevConf 2016
"PostgreSQL для разработчиков приложений", Павел Лузанов, (Постгрес Профессиональный)
Что нужно знать разработчику приложений о базах данных вообще и PostgreSQL в частности? Может быть достаточно основ SQL? А может во всём положиться на ORM?
Несмотря на кажущуюся простоту работы с базами данных, для качественной реализации приложений необходимы знания по самому широкому кругу тем:
- Нормализация и денормализация данных
- Типы данных и ограничения целостности
- Хранимые процедуры и триггеры
- Аналитические функции и CTE
- Транзакции и уровни изоляции
- Материализованные представления и секционирование
- Типы индексов и как их использовать
- Методы доступа к таблицам и способы их соединения
- Сбор статистики и планы выполнения запросов
А нужны ли разработчикам знания об основах администрирования и архитектуре СУБД в целом? Нужно ли понимать что и для чего делает VACUUM?
Доклад в первую очередь адресован разработчикам и архитекторам приложений, но также будет интересен администраторам баз данных и всем “сочувствующим”.
DataScienceLab2017_Высокопроизводительные вычислительные возможности для сист...GeeksLab Odessa
DataScience Lab, 13 мая 2017
Высокопроизводительные вычислительные возможности для систем анализа данных
Михаил Федосеев ( Архитектор инфраструктурных решений, LanTec)
В докладе мы поговорим о hardware стороне систем анализа данных для случаев построения приватных облаков или локальных высокопроизводительных вычислительных кластеров. Рассмотрим какие технологии и комплексные решения от компании Hewlett Packard Enterprise позволяют ускорить процесс анализа данных. Это не только зарекомендовавшие в своей области лучшие в своем сегменте сервера линейки HPE Apollo, а так же высокоскоростные сетевые коммутаторы HPE, но и дополнительные вспомогательные элементы решения, такие как мощные графические карты NVIDIA и хост-процессоры Xeon Phi. Так же будет рассмотрен стек HPE Core HPC Software Stack, который позволяет администраторам контролировать использование ресурсов системы.
Все материалы доступны по ссылке: http://datascience.in.ua/report2017
Презентация доклада Ильи Сотникова "Планируем резервное копирование и восстановление SharePoint. С чего начать?" с конференции SharePoint Conference Ukraine 2012
Дедупликация. Нет громоздким ленточным библиотекамКРОК
Вебинар «Решения ЕМС начального уровня: как упаковать Ваш ЦОД в одну стойку»
Подробнее о мероприятии http://www.croc.ru/action/detail/9603/
Презентация Верчёнова Сергея, инженера компании КРОК
Вебинар «Что нужно и что не нужно делать при проектировании инфраструктур для...Fujitsu Russia
На вебинаре Сергей Масленков и Николай Гришин подробно рассказали об особенностях проектирования и работы инфраструктуры, обеспечивающей поддержку in-memory-СУБД SAP HANA и ответили на многочисленные вопросы.
Gobblin как ETL-фреймворк / Иван Ахлестин (Rambler&Co)Ontico
HighLoad++ 2017
Зал «Москва», 8 ноября, 12:00
Тезисы:
http://www.highload.ru/2017/abstracts/2855.html
В своем докладе расскажу об ETL, как об общем классе задач извлечения, подготовки и доставки данных.
Поймем, какую нишу ETL занимает в мире BigData, какие существуют подходы и инструменты для операций над большими данными и какие требования могут к ним предъявляться.
Разберемся с тем, что такое Gobblin, открою нашу историю успеха по его внедрению и применению в отделе машинного обучения Rambler&Co, а также решаемые им задачи.
...
ERP-системы в облаке: разбор кейсов DataLineDataLine
Рассматриваем реальные кейсы виртуализированных ERP-систем в ритейле, e-commerce и промышленности и изучаем "подводные камни" на примере Oracle E-Business Suite, SAP ERP и Microsoft Dynamics AX.
Стратегия и тактика улучшения производительности BSS систем оператора мобильн...Ontico
В докладе поделимся опытом построения комплексного процесса последовательного улучшения производительности информационных систем мобильного оператора, расскажем об используемых инструментах и компонентах (Oracle, Tarantool, Java, Jmeter и т.д.).
Особенность нашего оператора в том, что основной канал взаимодействия с клиентом - это мобильное приложение или web Личный кабинет, а не USSD команды и СМС, как у основной массы операторов. Данная особенность создает высокие требования к времени отклика и доступности сервисов и ставит перед нами целый ряд вопросов:
- Как достичь приемлемого времени отрисовки страниц (не более 2х секунд) и не "уронить" backend при увеличении кол-ва абонентов в несколько раз за год до 4х миллионов?
- Как обеспечить приемлемую производительность при наличии сложных оркестрирующих процессов на ESB и достаточно медленного, основанного на Oracle биллинга?
- Как контролировать и улучшать производительность и доступность постоянно и на упреждение, а не когда "жареный петух клюнет"?
Мы расскажем о том, как мы отвечаем на выше обозначенные вопросы. В частности, расскажем о внедрении двух БД - inmemory БД на чтение и Oracle на запись с соответствующей синхронизацией, о технике кэширования на нескольких уровнях, оптимизации синхронных и асинхронных процессов, о постоянном выявлении узких мест на тестировании, о кластеризации и других аспектах улучшения общей и частной производительности и доступности при быстро растущей абонентской базе и беспощадной креативности бизнеса.
Доклад от Parallels:
Методики тестировния производительности database-centric приложений
Описание: При работе над сложными продуктами в database-centric приложениях изменения в коде и тем более в SQL запросах к базе данных могут приводить к неожиданным падениям производительности или же деградации производительности приложения с ростом размера базы данных. Поэтому важно уметь как можно быстрее отлавливать и исправлять причины таких деградаций.
Доклад о том, как устроен процесс мониторинга производительности продукта автоматизации хостинга и облачных сервисов Parallels Automation, для которого определяющим фактором является производительность базы данных.
Компания покажет, как анализирует планы исполнения SQL запросов внутри PostgreSQL, как проверяет насколько быстро и эффективно в целом работают SQL запросы, как определяет стратегию дальнейшей оптимизации.
Сергей Мелехов, Менеджер по развитию бизнеса вычислительных систем Oracle Вос...Банковское обозрение
Сергей Мелехов, Менеджер по развитию бизнеса вычислительных систем Oracle Восточная Европа, СНГ, Турция и Центральная Азия, Oracle: Платформа Oracle для банковских приложений
WebCamp:Back-end Developers Day. Петровский Анатолий "Как построить хайлоад и...GeeksLab Odessa
03.07.2015 WebCamp:Back-end Developers Day
Петровский Анатолий (Backend developer at Readdle)
"Как построить хайлоад и не сойти с ума"
Петровский Анатолий (Backend developer at Readdle)
Расскажу о том, как на уровне архитектуры обеспечить светлое будущее проекту и уменьшить боль для новых разработчиков.
Best practice в архитектуре систем.
Репликации данных.
Декомпозиции системы.
Балансировка нагрузки.
Автоскейлинге и доставке кода в продакшен.
Методах оптимизации систем
Подробнее:
http://geekslab.co,
http://webcamp.in.ua/
https://www.facebook.com/GeeksLab.co , https://www.facebook.com/OdessaInnovationWeek
https://www.youtube.com/user/GeeksLabVideo
Центр решений ФОРС. Презентации продуктов и технологий. Демонстрационный зал аппаратных средств. Проведение тренингов и тестирований. Проработка и оптимизация решений на стеке Oracle. Oracle Big Data Appliance
Oracle усиливает свои позиции на рынке Cloud Computing, приобретая компанию Ravello Systems - лидера на рынке nested virtualization (вложенная виртуализация) и стремительно развивая решения по переносу on-premise мощностей в облако.
Row format is optimized for OLTP workloads.
OLTP operations tend to access only a few rows but touch all of the columns.A row format allows quick access to all of the columns in a record since all the datafor a given record are kept together in-memory and on-storage. Since all data for a row is kepttogether, much of the row data will be brought into the CPU with a single memory reference. Row format is also much more efficient for row updates and inserts.
Analytical workloads access few columns but scan the entire data set. They also typically require some sort of aggregation. A columnar format allows for much faster data retrieval when only a few columns in a table are selected because all the data for a column is kepttogether in-memory and a single memory access will load many column values into the CPU.It also lends itself to faster filtering and aggregation, making it the most optimzed format for analytics.
Up until now you have been force to pick just one format and suffer the tradeoff of either sub-optimal OLTP or sub-optimal Analytics.
With the introduction of the Oracle Database In-Memory Option it is now possible
to run real-time, ad-hoc, analytic queries on your business data as it exists
right at this moment and receive the results in sub-seconds.
True real real-time analytics.
Imagine being able to know the total sales you have made in the state of California as of right now. Not last week, or even last night but right now and have that query
return in sub-second time.
Other databases have row and column formats but you must choose ONE format for a given table.
Therefore you get either fast OLTP or fast Analytics on that table but not both.
Oracle’s unique dual format architecture allows data to be stored in both row and column format simultaneously. This eliminates the tradeoffs required by others.
Up until now, this could only be achieved by having a second copy of the table
(Data Mart, Reporting DB, Operational Data Store), which adds cost and complexity
to the environment, requires additional ETL processing and incurs time delays.
With Oracle’s unique approach, there is a single copy of the table on storage.
So there are no additional storage costs, synchronization issues, etc.
The Oracle optimizer is In-Memory aware. It has been optimized to automatically
route analytic queries to the column store, and OLTP queries to the row store.
The Oracle in-memory column format is designed to enable very fast SIMD processing (single instruction processing multiple data values). You can imagine SIMD or vector processing as array processing.
SIMD was originally designed for accelerating computer generated animation and High Performance Scientific computing.
Lets assume we are looking for the total number of sales we have had in the state of California this year.
The sales table is stored in the In-Memory Column Store so we simple have to scan the state column and count the numberof occurrence of the state of California. With SIMD processing we can check 16 values or entries in the state column in a single CPU cycle.
Columnar speed comes from
Scanning only needed columns
SIMD optimized format
Column specific compression algorithms
We have shown that we can scan and filter in-memory data extremely quickly.
But with any new data format we need to be able to join and aggregate the data as well as scan it.
With Vector joins, the join between the stores and sales table can be converted into a scan of the sales
table with the ‘where’ clause predicate on the store table being converted into a filter on the sales table.
This allows us to take full advantage of what In-memory is best for, fast scans and filters.
Analytic style queries require more than simple filters and joins. They often require aggregations and summaries.
And this is where the Oracle Optimizer comes in. The optimizer recognizesthese aggregation queries and transforms or rewrites them to take advantage of vector joins and vector group-bys. This allow the joins and group by
(or aggregation) to occur simultaneously with the scan of the sales table,rather than waiting for the table scans and join operations to complete
before beginning the aggregation.
Aggregation normally has to dynamically determine the format of the result and the contents of the result at the same time.
Any new row can cause the format of the result to change.
By precomputing the report outline, the aggregation can run much faster since the report format is known ahead of the fact table scan and fact rows can just be added into the known format.
Up until now, the only way to run analytic queries with an acceptable response on an OLTP environment was to create specific indexes for these queries.
The good thing about indexes is that they are extremely scalable. They work well in-memory and also are extremely efficient on-disk since they minimize disk IO needed to find the requested data.
All of these additional indexes need to be maintained as the data changes,
which increase the elapse time for each of these changes.
Because the In-Memory Column Store is embedded in the Oracle Database it is fully compatible with ALL existing features,
And requires absolutely no changes in the application layer. This means you can start taking full advantage of it on day one,regardless of what applications you run in your environment.
Any application that runs against the Oracle database will transparently benefit from the in-memory column store.