RAC is Simple

В компании Форс, Партнерской Академии закончился семинар под кодовым названием 'RAC is Simple'. Семинар идет 3 дня и содержит помимо теоретической части 12 (!) лабораторных работ. Ведет семинар независимый консультант Дмитрий Кучугуров, который уже проводил серию из трех семинаров RAC: от мифов к реальности около двух лет назад.

Особенность 'RAC is Simple' в том, что каждый студент получает кластер из 4-х виртуальных машин (2 узла, клиент, Openfiler), за 3 дня учится его ставить, тестировать, настраивать, и узнает много чего нового про taf, fan, контексы и прочее. Это наиболее быстрое и практическое погружение в RAC в настоящее время.

Пишет Дмитрий Кучугуров: "Мы проводили на этом оборудовании тренинг в первый раз. Программу удалось пройти полностью. Но не все прошло гладко, создание базы данных шло конечно очень долго. К следующему семинару мы изменим конфигурацию оборудования чтобы дать больше времени студентам для практики".

Насколько я знаю, это единственный сейчас полноценный живой семинар по RAC (за исключением Oracle University конечно) в России. Если я ошибаюсь - пожалуйста сообщите где еще идут семинары по RAC.

Ну а пока атакуйте FORS, Партнерскую Академию Oracle и лично Андрея Тамбовского с тем чтобы попасть на этот семинар -) Следующий семинар объявлен в июле -)

Это снимок отзыва с первого семинара, слушатель решил написать на английском языке:




Update by Sergey Danilov: Я нескончаемо рад, что семинар продолжает функционировать. Интересно, что Дмитрий Кучугуров участвовал в первом семинаре серии RAC DD4D и держал флаг Oracle на той самой первой фотке:


(теперь Дмитрий Кучугуров держит флаг Oracle во всех смыслах этого слова)


Читать дальше...

40

Пост должен был быть опубликован в понельник, но задержался -- я все это время сидел с откртытым ртом и наблюдал как IBM и Oracle машут шашками.

Хочу сердечно поздравить Диму Волкова с юбилейным днем варенья. Долгих лет и здоровья тебе, Дима. И еще удачи тебе. Удача -- это тоже важно.

Желаю:

1. Чтобы Oracle все-таки выпустил Exadata под IBM P7 и в блоге вновь наступила гармония :^)
2. Чтобы мы увидели больше проектов IBM P7 под RAC с твоим участием (а то китайский оптоизолятор 4N33 часто ломается :^)
3. Чтобы компрессия компрессовала данные минимум в 15 раз, на IBM P7 и чисто аппаратно :^)

Дима, продолжай радовать нас интересными постами.


Update 1 by Dmitry Volkov: Спасибо. Сегодня я хочу опубликовать весьма официальную информацию, что очень важно, подписанную обеими компаниями:

"IBM® and Oracle® share a strong commitment to business and technology innovation."

"Senior IBM and Oracle architects work together to influence technical product direction for each company and continually look years ahead when developing future advanced solutions".

Так что мы заменим оптоизолятор, RAC включим в AIX 8, и будет аппаратно сжимать все в 20 раз. Дайте только years ahead....-)))))))


Читать дальше...

cpu - work in progress, part II

Как вы наверное знаете по нашим тестам (большое спасибо всем кто прислал результаты !), даже не самый последний Xeon делает Power 7 как минимум в два раза . Однако Oracle c нами категорически не согласен!  Берем тесты OEBS на сайте Oracle:


Легко видеть по ссылке выше, что 6 ядер Power 7  дают 213,523 попугаев, а 2 x 3.33 GHz Intel® Xeon™ Six-Core X5680 processors (12-cores)  дают 185,643 попугаев.

Итого ядро Power7 в два раза производительнее Xeon 5680.  Или я чего-то не догоняю ? -)
Я нашел два подвоха, мне интересно видите ли вы их -) Потратьте 15 минут на просмотр статистики (отчеты и AWR), это даже полезно чтобы получить представление о том, как следует оформлять результаты тестов.  
Я обновлю пост через какое-то время на основе того, что найдут читатели.


PS. Обратите внимание на времена ответа массивов.  Из AWR репорта P710 можно извлечь что log file parallel write/db file parallel write ~1 ms, log file sync ~ 4 ms, db file sequential read ~ 3 ms, db file scattered read ~ 7. В тесте использовался DS5000  который вообще-то дает до 700,000 IOPS. DS5000 это  mid-range.


Читать дальше...

1 июня 2011 года, Форум AIX - 25 лет успеха.

1 июня 2011 года в Москве состоится Форум «AIX – 25 лет успеха! Power Systems – машины времени».

Цитата из приглашения: 
"У Вас есть уникальная возможность получить информацию о самых значительных событиях и интересных технологических достижениях из истории AIX и POWER, открыть для себя преимущества, доступные пользователям AIX и IBM Power Systems сегодня, и одним из первых узнать о технологиях будущего! "

Ссылка на регистрацию и программа - здесь.  Пожалуйста приходите.  Мы будем показывать демонстрацию  с Oracle Database -) 


Читать дальше...

Shit may happen...pls install PSU !

Если у Вас 11.2.0.1/11.2.0.2 RAC Oracle   ORA-600 и/или Corruption может случиться во время shutdown normal/transactional/immediate отдельного экземпляра. Этого не происходит если делать shutdown всей базе данных или делать shutdown abort. Workaround для конкретного экземляра :

SQL>alter system checkpoint local;

srvctl stop instance -i racdb1 -d racdb -o abort 


Fixed in 11.2.0.2 PSU 2. Все подробности в MOS ID 1318986.1.


Читать дальше...

x10 или кое-что о событиях ожидания

Update 1. В комментариях отозвался автор презентации, цитата: "главное здесь слова, жесты, мимика, а презентация всего лишь фон". 

Я случайно обнаружил весьма занятную презентацию, которую судя по url читали на вот этом событии. Я обратил внимание на слайд 23, картинку с которого вы видите слева. Текст на слайде гласит:  "суммарное время на операции ввода-вывода сократилось в 10 раз". Это, несомненно потрясающий результат. Наверняка это еще и говорит о том что скорость обработки возрастет в 10 раз, не так ли ? Сейчас мы это узнаем. 

Приглядевшись к списку событий ожидания я увидел, что складываются яблоки и апельсины - события ожидания foreground процессов вместе с ожиданиями background процессов.  Для конечного пользователя конечно же интересны только события ожидания, которые могут испытывать foreground процессы. С какой там скоростью работает db writer (если он справляется) пользователям не важно. Складывать такие события ожидания это достаточно грубая ошибка, говорящая о непонимании как архитектуры так и  response time formula : 

Время ответа конкретной сессии определяется по формуле 
R = W + S, где W суммарное время ожидания данной сессии,  S суммарное время обслуживания сессии
Некоторые события ожидания вместе с примечанием (Foreground  и/или Background) процесс могут их испытывать (картинка из книги Oracle Wait Interface)

Мы видим что (например) log file parallel write это событие ожидания для background процесса и к поэтому никак не может влиять на производительность сессии конечного пользователя.   Но автора презентации это не останавливает и он суммирует это время с  db file sequencial read.
Таким образом изо всех сил складывались события, в том числе не относящиеся к пользовательским сессиям.  Повторюсь, такая суммарная цифра бессмысленна, кроме как блеснуть ей в PowerPoint.
Теперь давайте посмотрим на действительно пользовательские события ожидания: 

- db file sequental read было 5.91  ms а превратился в cell single block physical read c 0.91 ms 
- log file sync было 26 ms а превратилось в 12 ms 
- db file scattered read было 5.3 ms а превратилось в cell multiblock physical read 2.04 ms 
- read by other session было 7 ms,  а стало 14 ms 
- direct path read - было 3 ms, стало 1 ms (хотя они все должны были бы превратиться в cell smart table scan)

Что можно сказать - у базы данных явно проблемы с log file sync, и следовало бы обратить внимание на эту проблему.   Read by Other Sesson =  7 ms это очень много, больше времен ввода-вывода. Это надо срочно исправлять, искать сегмент  за который идет такая конкуренция. Улучшились времена по вводу - выводу ? Да, соглашусь.  Теперь, если вы обратите внимание на предыдущий слайд, стр 22, вы увидите что DB CPU это 89% от всего времени, а I/O ~6%. На основании имеющихся данных, у данной базы I/O не является узким местом.Показатель Parse Cpu to Parse Elapsed ~50% косвенно подтверждает что присутствуют  проблемы с процессорным временем (возможно из-за парсинга)

Возвращаясь к Response time formula Service time занимает у нас 89% времени ожидания (например logical reads, parsing), мы же в это время пытаемся сократить в 10 раз I/O  что не даст нам видимого пользователями эффекта.

PS Мне стало интересно, как же Oracle допустил такой ляп ? Поиск подсказывает,  что данная презентация сделана на основе вот этой, с OpenWorld. И конечно оригинальная версия не содержит ничего такого и никаких в 10 раз. Видимо 10 раз появляется исключительно в результате пересечения атлантического океана -)


Читать дальше...

интересное чтиво

Хочу рекомендовать к прочтению книгу Troubleshooting Oracle Perfomance by Christian Antognini по нескольким причинам:
- Она написана простым и понятным языком
- Большинство (если не все) примеры очень простые, их легко воспроизвести и понимать
- Я могу рекомендовать эту книгу не только администраторам но и разработчикам

Я бы наверно сформулировал так - если вы понимаете в целом архитектуру Oracle DB  и теперь вам интересна производительность - пожалуйста в качестве первой книги прочитайте эту. Я бы даже сказал криминальное - до Perfomance Tuning Guide, потому что эта книга написана простым языком.  Потом, когда основное уложится в голове, детали вы сможете прочитать в документации или в Lewis


PS  Я не знаю где ее 'скачать' или есть ли перевод на русский.


Читать дальше...

Oracle 11gR2 on AIX

Недельной свежести документ Oracle 11gR2 and RAC 11gR2 on AIX. Must read для тех кто использует Oracle on AIX.   Что прикольно, AIX занимает второе место в мире по market share согласно Gartner. Никогда бы не подумал. Кто же первый ? Конечно  Microsoft, даже несмотря на то что я полностью отказался от Windows в начале года -))


Читать дальше...

cpu speed - work in progress

Ниже вы увидете пост, работа над которым сейчас ведется. Пожалуйста если вы любите проверенные материалы - не читайте далее пока данный абзац не будет убран.  Пост может содержать недостоверную информацию.

Все остальные - пожалуйста комментируйте -  ваше мнение  важно для меня и ваших коллег. Будьте вежливы, но комментарии все равно модерируются -) Вместе с завершением появится и картинка к этому посту.



Читать дальше...

I need 10 sec of your time. Well, 10 your cpu seconds..

Вы не могли бы запустить у себя вот этот тест

SET SERVEROUTPUT ON
SET TIMING ON

DECLARE
  n NUMBER := 0;
BEGIN
  FOR f IN 1..10000000
  LOOP
    n := MOD (n,999999) + SQRT (f);
  END LOOP;
  DBMS_OUTPUT.PUT_LINE ('Res = '||TO_CHAR (n,'999999.99'));
END;
/

И написать в комментарии
 - OS
 - время, за которое он прошел
- тип процессора

Как видно из ссылки выше лучший результат пока 8.21

У меня дома:
- OEL 5,
- Elapsed: 00:00:16.45
 - Intel(R) Core(TM)2 Duo CPU     E6850  @ 3.00GHz
(в виртуальной машине, поэтому так плохо)

Никаких выводов тут делаться не будет, результаты просто будут сведены в табличку. Да и нельзя сделать выводов на основании 10 сек теста 1-го ядра, все это понимают. Но интересно ...
Спасибо !


Читать дальше...

the magic of calculations

Update 3.  8 Мая.   Я готов признаться в провокации -) Мне было интересно, что напишут люди отвечающие за продажи продукта, насколько они понимают архитектуру решения, ее баланс.  Коротко, я стал атаковать утверждение,  что базы данных целиком будут сжиматься в 10 раз.

Короткий ответ на провокацию должен бы быть такой: "это не важно, в 10 или в 8, или в 4. У нас есть только 3 варианта: 45 Tb, 22 Tb, 9 Tb и ты обязательно поместишься в один из них.  После того как ты поместишься в один из вариантов мы сожмем несколько важных таблиц для увеличения скорости критических бизнес отчетов, но так, чтобы не убить процессоры для остальных задач. Насколько мы сожмем зависит от природы данных конкретной таблицы и характера твоего приложения. Нужно будет посильнее - отсортируем. Пока можешь оценить сам с помощью dbms_advisor.". Точка.  Ну если я купил 9 Tb ну нахрена мне держать там пережатым  1Tb и ждать пока они декомпрессуются если у меня есть еще 8  ?  Что там, картошку хранить ? Ну конечно же лучше пожать что-то сильнее, что -послабее чтобы был лучше баланс между IO и CPU. Размер БД когда есть всего 3 варианта поставки вообще не важен - никакой экономии вы не получите все равно. Но для этого надо знать архитектуру, лицензирование и прочее...

Вместо этого, началось доказательство что обязательно в 10 раз, что точно и ни разом меньше, но обещать не можем. В довершении в лучших традициях перешли на личности.   Это значит, что если в проекте с вами не получится в 10 раз, или вы не дай бог начнете задавать вопросы - то вы узнаете о себе много нового. Подумайте об этом -)
------------------------------------------------------------------------------------------------------------------------

Берем пост про миграцию на Tukcell. Читаем презентацию. Видим, что с 250 Tb база стала 25 Tb. Т.е. в Hybrid Columnar Compression сжала БД в 10 раз. Аплодисменты. Шампанское. Выпив, я рассудил трезво:

в презентации находим ссылку на блог. Смотрим на табличку, понимаем что сортировать таблицу перед компрессией все таки не слишком честно, делим 137/21 получаем ~ 6.5. Отличный результат, между прочим, OLTP Compression дает примерно 2-3.




Я решил заняться пересчетом коэффициентов потому что вчера послушал специальный Webcast про Hybrid Columnar Compression. В нем приводятся коэффициенты от 4-х до 6. При этом если почитать презентацию станет понятно что использовали они в production for archive low, т.е. 4.3. Также Real Customer Case между прочим.

Кстати, вы можете использовать advisor compression и без Exadata чтобы получить оценки. Как вы видите, он хотят и занижает результат, но в принципе дает очень близкий. Вот что я делал еще давно - взял TPC-H схему и попробовал advisor. Получил примерно ~ 5 раз.

Видно, что очень зависит HCC компрессия от природы данных, от того захотите ли вы их сортировать каждый месяц или нет. Что точно неправильно - это рассчитывать что ВСЯ БД будет сжата во сколько-то раз на постоянной основе. Возможно если у Вас есть бесконечно много времени вы и вправду будете переезжать на Exadata сортируя данные. В презентации есть детали, 36 часов им понадобилось на основные 40 Tb, переливали они их с помощью pl/sql процедур, но сортировали они их или нет и когда - не ясно -(. Понятно что остальные 60 Tb им тоже пришлось переливать когда-то. Я уверен что Сергей Данилов выкрутиться и в этот раз, просто интересно как -))))
PS Чего нельзя отнять - так это то что турки молодцы. Все таки они клево пробились, переливать такие объемы вручную (pl/sql процедуры) - это сильно по ковбоиски ...

Update 1. 07 Мая

Я сделал скринщот оригинального поста про Туркселл:

Всем видно что написано "Технология HCC сжала данные в 10 раз "? Теперь в комментариях (там треш) читайте как следует на самом деле это понимать -))))

Правда заключается в том, что у турков было 100 Tb (сжатых компрессией 10g, стр 3 презентации), они перевели на Exadata 90 Tb (стр 11 презентации), для улучшения компрессии они сортировали данные в момент перелива, получили 25 Tb. 90 / 25 каждый делит для себя сам.

Теперь пояснение для чего я это написал изначально - приходят заказчики, которым уже пообещали, что их базы будут сжаты в 10 раз. Так как заказчик всегда прав, то теперь у вас есть возможность решить так это или нет.

UPDATE 2 by Sergey Danilov:

Сергей Данилов знает о компрессии примерно столько же, сколько о жизни на Луне :^) Сергей Данилов объясняет бизнесу как вон тот ящик сделает бизнес качественнее, поэтому Сергей Данилов срезает технические углы. Нет ничего проще, чем аппелировать к технической неточности в словах Сергея Данилова. Это "как два байта переслать" :^)

Читаем что пишет сам Ферхат в своем техническом документе. Это данные от человека, который сделал проект своими руками.

Compression in Action

Old System 10gR2 Compression
• ~2-3 times ~250TB raw data to 100TB

Exadata V2 with EHCC
Raw Data 250TB to 25TB (Data) + 5TB (Temp) = 30TB
EHCC - Compress ratio ~7-10x
• Archive compression is efficient but high CPU consumption

Там все четко написано Raw Data 250TB to 25TB (Data). Там также отдельно выделена эффективность технологии сжатия: ~7-10х. Метрика 10x при переезде на Exadata была реально достигнута (как совершенно правильно пишет Ферхат, "при помощи HCC"). И аппелировать к неточностям надо в материале Ферхата, а не Сергея Данилова.

Под Oracle сжатие 10х никак, я повторюсь, никак не достижимо без Exadata.


Читать дальше...

nmon + rrdtool

Все знают, что файлы собранные nmon следует анализировать с помощью nmon analyzer который представляет собой   Excel таблицы. С этим связано несколько неудобств:
- Excel не умеет работать с файлами длиннее 65,000 строк
- Сам Excel -(

В принципе альтернативы есть, и первая называется nmon2rrd. В данном случае все заливается в rrdtool и с его помощью отстраиваются графики. Небольшое отвлечение, почему rddtool - она умеет консолидировать данные и вы совершенно бесплатно получите позже trend для ваших данных !

Вот примерная последовательность действий:
  1. Я решил что хочу анализировать данные на своей рабочей станции. Сейчас. А потом не знаю. Возможно отдать кому-нибудь. Или переставить где-нибудь. Поэтому - мой выбор виртуалка. Я скачал Virtual Box (это бесплатно  и есть для всех мыслимых платформ). 
  2. Затем я поставил  туда Oracle Linux 5.6 (опять бесплатно), и соединил с репозиторием yum-public. 
  3.  Следующий шаг - установка rrdtool. 
    1.  yum install cairo-devel libxml2-devel pango-devel pango libpng-devel freetype freetype-devel libart_lgpl-devel make -y
    2. wget http://oss.oetiker.ch/rrdtool/pub/rrdtool-1.4.4.tar.gz
    3. gunzip, tar 
    4. ./configure --disable-tcl
    5. make
    6. make install
    7. ln -sf /usr/local/rrdtool-1.4.4/bin/rrdtool /usr/bin/rrdtool
  4. Теперь пора скачать nmon2rrd, увидеть что он под AIX, скомпилить его под Linux. 
  5. Быстренько ставим Apache:  yum install httpd
  6. Генерим графики nmon2rrd -f xxx_db.nmon -d  /var/www/html/xx_db -x 
  7. Наслаждаемся просмотром
Вышеперечисленное можно повторить практически на любой ОС включая Windows.

 Достоинства: процесс можно автоматизировать, потому что с этим Excel руками каждый день строить графики не очень приятно.

Недостатки: не слишком удобный index.html строится по умолчанию. Придется работать напильником, или я чего-то не дополнял.



Есть альтернативный подход (подход N2) основанный на скрипте nmon2web. Он правда также использует rrdtool. И хотя этот скрипт уже почти готовое решение, раскладывает все по дням, умеет находить что появился новый сервер - график он построил чуть с худшим качеством чем nmon2rrd. Возможно я и придираюсь, все таки сервис явно получше.
Вам есть что выбрать -))

В следующих сериях мы будет грузить в rrdtool statspack -)


Читать дальше...

"Life in Oracle" by Igor Menlikov

Как вы видите в этом блоге началась маркетинговая шиза - мы с Сергеем буквально соревнуемся в том, кто найдет круче видео  -)

В это же время настоящие пацаны ведут простые технические блоги - welcome to Life in Oracle  by Igor Melnikov ! 


Читать дальше...

Сколько у Вас DBA и сколько у Вас баз данных?

Аналитическая компания Forrester проводит много разных исследований. Одно из исследований было такое: Сколько баз данных (инстансов в понятии Oracle) в среднем администрит один DBA.

Forrester несколько раз публиковал график, который говорит нам, что например в 2000 году на одного DBA в среднем приходилось 15 баз данных (инстансов в понятии Oracle), в 2007 24 баз данных, и в 2010 году 40 баз данных на одного DBA. За всем этим нет какой-то большой науки. Они просто профессионально проводят опросы и публикуют статистику.

Я спросил один очень крупный американский инвестиционный банк сколько у них DBA и сколько у них баз данных (объяснив им при этом, что под базой данных я подразумеваю instance в понятиях Oracle). И большой IT-начальник того банка сказал мне, что у них глобально в мире около 5000 баз данных (Oracle, DB2, SQL Server, Sybase и т.д.) и 346 DBA, которые администрят эти 5000 баз данных. Я тупо разделил одно число на другое, получилось 15 баз данных на одного DBA. И тогда я наложил это число на график Forrester и сказал тому начальнику, что их компания живет в состоянии, в котором большинство компаний были 10 лет назад (по данным Forrester). И начальник меня понял, так как раньше он работал в другом инвестиционном банке, где это число получалось намного выше. Теперь банк разворачивает программу повышения уровня автоматизации работы DBA, чтобы достичь метрику 40 баз на DBA.

Мне просто интересно что мы имеем в России, и я думаю всем будет очень интересно, если читатели этого блога на правах анонимности оставят комментарии к этому посту, написав сколько у Вас DBA и сколько у Вас баз данных.

Вопрос в общем-то очень простой :^)

Пояснения:

  • Всех баз данных, не только Oracle. (Под базой данных мы понимаем instance в понятиях Oracle. Я знаю, что в SQL Server, например, базой данных называется что-то похожее на schema в Oracle).
  • Я знаю что в маленьких организациях метрика будет меньше, чем в больших организациях, поэтому если можно опишите также размер организации любыми доступными Вам словами.
  • Пожалуйста, постарайтесь не писать в комментариях к этому посту ничего кроме запрошенной информации. Подискутировать можно в других постах -- их здесь навалом.
UPDATE: Кстати, у аналитика из Forrester, который занимается этим исследованием есть блог, в котором он пишет про собираемую им метрику более подробно.

UPDATE 2: Черт, ну любит у нас народ пообсуждать. Иногда цифры намного и интереснее чем рассуждения "так ли мы живем" и "к тому ли мы стремимися". Всем будет интересно. Хотя бы просто понять порядки цифр. Религиозные приверженцы MS SQL могут прислать данные "в понятиях MS SQL" но тогда пожалуйста укажите еще сколько у Вас физических серверов :^)


Читать дальше...

1,000,000

Чтобы окончательно добить сегодня тему маркетингового булшита - в том же видео делается упор на 1,5 mln IOPS операций в секунду. Я сам видел на Open World этот тест, хотя тогда он давал 1 mln,  просто сейчас что-то улучшили. Т.е. да это правда, у меня нет сомнений.   Необыкновенная гордость за достижения распирает пока не наткнешься на сайт на котором 1 PCI карточка дает 1,2 mln IOPS и держит объем 5  TB (=объем flash'а в Exadata full rack). Циничным издевательством выглядит наличие драйверов в том числе для Windows XP.  1 (одна)  PCI карточка по характеристикам (как по IOPS, так и по объему) = всему  flash cache в Exadata Ful Rack. Я готов снять видео -))
   


Читать дальше...

Are You ready ? Yes, We are !

Я нашел что ответить нашему английскому джентельмену в ответ на его "Are you ready ?"
-))




Но конечно же по настоящему интересное видио тут, когда про Power 7 рассказывает команда из Германии, которая принимала участие в разработке. Один из инженеров честно говорит - "мне просто было офигенно интересно". 


Читать дальше...

turbo core

У старшего поколения Power  машин (начиная с 780)  есть интересная возможность - называется turbo core. Подробное описание вы найдете (правда для System I, зато с картинками) здесь, а своими словами:  половина ядер отключается, зато вторая половина ядер начинает работать с повышенной частотой и получает в два раза L3 cache на ядро.  Повышение частоты при этом составляет с 4.0 GHz до 4.31 GHz (+13%), что прямо скажем - не очень много.

Включается эта возможность весьма легко - но конечно же потребует перезагрузки машины.

Основной (для меня) вопрос - как этот режим влияет на производительность СУБД остается непонятным.

Ниже вы найдете картинку (я не знаю ее источника и даже не до конца понимаю что там нарисовано) из которой  вроде бы следует что производительность single thread возрастает незначительно (~ частоте), а вот SMT4 здорово добавляют. Не знаю, можно ли из этого сделать вывод что если у нас уж больно много потоков то лучше не переключаться с SMT2 а перейти в turbo.




Но есть и интересная деталь к Turbo Core режиму - это примечание из Oracle Overview of licensing policies for partitioned environments:

"Using IBM processors in TurboCore mode is not permitted as a means to reduce the number of software licenses required; all cores must be licensed"

В интернете считается что это значит что  Oracle требует оплаты всех (для Power 7)  8 ядер, хотя на самом деле у меня всего 4 в  turbo. Так вот нет, я уверен что есть вполне легальный способ заплатить за 4 ядра и называется он LPAR. Переводя процессор (или ядра) в turbo вам необходимо выделить capped LPAR с 4 ядрами и заплатить за 4 ядра. Где еще 4 ядра - никого не волнует. Их может и не быть (как в случае с turbo), а могут быть заняты App Server'ом - главное что Oracle использует всего 4 ядра. В чем же тогда смысл фразы ? Он очень простой, (ведь вы помните что мы читаем про partitioned enviroment) - пожалуйста если в вашей LPAR 8 ядер не нужно рассказывать что на самом деле их 4 и они в turbo - Oracle не будет в этом разбираться. Так что делайте как я написал выше и все в порядке. Это мое оценочное мнение, если что -).


Читать дальше...