Firmware update hp bl460c g7
slava_boor
  Не всегда всё гладко с обновлением прошивок на серверах HP. В этот раз разгребал завалы с BL460с G7. Последний раз его обновляли в 2011 и за это время вышло достаточно фиксов: ilo, raid controller, bios, emulex flexfabric. После последовательной установки  обновлений (сначала SPP2015060 потом SPP2016040 ) перестал загружаться ESXi 5.5 - purple screen. Сделано, сломали...
Read more...Collapse )

Проблема Zimbra-прокси при обновлении до 8.7
slava_boor
После обновления Zimbra 8.6 до 8.7 перестал запускаться Zimbra proxy, как следствие не загружается web-интерфейс и т.д.:

Starting proxy...nginx: [emerg] invalid URL prefix in /opt/zimbra/conf/nginx/includes/nginx.conf.zmlookup:3
failed.

Ругается на URL префикс в настройках nginx. Добавим https:// в качестве префикса в /opt/zimbra/conf/nginx/includes/nginx.conf.zmlookup

Было:

zm_lookup_handlers email.hostname.by:7072/service/extension/nginx-lookup;

Cтало:

zm_lookup_handlers https://email.hostname.by:7072/service/extension/nginx-lookup;

Перезапускаю zmproxy:

zimbra@email:~$  zmproxyctl restart
Stopping proxy...proxy is not running.
Starting proxy...nginx: [emerg] unknown directive "chunkin" in /opt/zimbra/conf/nginx/includes/nginx.conf.web:134
failed.

Теперь видим, что ругается на директиву "chunkin". Google подсказывает: "This module is no longer needed for Nginx 1.3.9+ because since 1.3.9, the Nginx core already has built-in support for the chunked request bodies".  Функционал HttpChunkinModule был перенесен в основной код.

Смотрим версию nginx:

zimbra@email:~$  nginx -v
nginx version: nginx/1.7.1

Следовательно, в нашем случае следует "выкосить" из конфигурационных файлов директиву "chunkin" и её остатки :

zimbra@email:~$ nano /opt/zimbra/conf/nginx/includes/nginx.conf.web

комментируем строчку:

 # chunkin on;

Перезапускаем службу прокси:

zimbra@email:~$ zmproxyctl restart
Stopping proxy...proxy is not running.
Starting proxy...nginx: [emerg] unknown directive "chunkin_resume" in /opt/zimbra/conf/nginx/includes/nginx.conf.web.https.default:463
failed.

Снова ругается правим ещё один файл:

zimbra@email:~$ nano /opt/zimbra/conf/nginx/includes/nginx.conf.web.https.default
#chunkin handler
   # location @chunkin_handler {
   #     chunkin_resume;
   # }

Перезапускаем службу прокси:

zimbra@email:~$ zmproxyctl restart
Stopping proxy...proxy is not running.
Starting proxy...done.

Всё работает!

Openwrt 15.05 Update. Проблема с PPTP VPN
slava_boor
После обновления до 15.05 перестал работать PPTP-vpn.
Вспомнил, что нужно настроить PPTP NAT Traversal установкой пакета:

opkg update
opkg install kmod-ipt-nathelper-extra

В итоге :
opkg install kmod-ipt-nathelper-extra
Unknown package 'kmod-ipt-nathelper-extra'.
Collected errors:
* opkg_install_cmd: Cannot install package kmod-ipt-nathelper-extra.

Выяснил, что в 15.05 пакет поменял название на kmod-nf-nathelper-extra. Теперь эта комманда выглядит так:

 opkg install kmod-nf-nathelper-extra

Теперь VPN работает )

Vmware Vsphere 6 Update 1b
slava_boor
Links:Collapse )

Dell VRTX vSphere 6 support
slava_boor

vSphere 6 on the Dell VRTX is here!

It’s been a long time coming!  I had tried using ESXi 6.0 on a Dell VRTX chassis several months ago only to end in failure and frustration.  Only after I had ESXi 6.0 installed on an M520 VRTX blade did I read on Dell’s site that the VRTX was not supported.  Shucks!  The reason it wasn’t supported was because of the lack of support for the Shared PERC8 RAID controller – there was no driver available within ESXi 6.0 which was a bummer.  This meant that you can install ESXi 6.0 on the blades but you’ll only have access to the internal (on the blade, 2-drive) PERC and external storage (NFS, iSCSI, etc.) but not the shared storage within the chassis.

The VRTX also suffered from an issue whereas you had to elect for either high availability or performance on the RAID controller but not both.  I covered this issue earlier, but if you opted for a VRTX with a redundant Shared PERC 8 controller then you would have horrible write performance because Dell forgot that you may want to have write-back caching enabled between the two (active/standby) controllers and have them highly available.  They fixed that with a later firmware release (which I covered in this blog post), but it involves shutting all of the blades off in the chassis and doing a CMC/mainboard/PERC firmware update.  I had updated the firmware to support write-back cache on the VRTX I am using and expected ESXi 6.0 to start seeing the shared storage but alas it did not…

With Dell’s release of the new firmware/driver, VMware updated their Hardware Compatibility List (HCL) to list the specific version. You can check out the HCL update here.  It would seem you just need to flash that version of firmware to meet the requirements of the HCL and grab the latest Dell Customized ESXi 6.0.0b image and you’re ready to rock… but not so fast.  You also need the following other supporting firmware versions that are called out in a supporting Dell PDF (listed here on page 4):




  • Shared PERC8 Firmware version 23.12.56-0086

  • Shared PERC8 OS Driver version 6.804.60.00

  • CMC Firmware version 2.04

  • Chassis Infrastructure Firmware version 2.1

  • Expander Firmware version 2.0


I had updated all of these components just a few weeks earlier (including the switch module) except for the Shared PERC8, of course, which just became available.  So, with all of my components were already up to snuff, I just applied the Shared PERC8 firmware (which requires that you shut all of the blades down) alone:

CMC and Infrastructure Firmware Current

CMC and Infrastructure Firmware Current

Shared PERC8 firmware version

Shared PERC8 firmware version 23.12.56-0086

When you upgrade the CMC/etc. it is also recommended you bring the blade itself up to date.  You can download a bootable ISO built by Dell from this link (change the model in the URL for other blades/servers) that will upgrade literally all of the firmware within the server.  Dell supposedly updates these ISOs relatively often, but you can create your own using repository manager if you need to.  So after you’ve met all of the firmware version requirements, pop in the Dell Customized ESXi 6.0.0b ISO, kick off the installer, and configure the host as needed:

Let's try this again...

Let’s try this again…

And…wait for it…

vSphere showsing Shared PERC8 Storage

vSphere showsing Shared PERC8 Storage

Finally, the Dell VRTX runs vSphere 6 and can access the storage on the Shared PERC8!  But, not only that, we also have fully-functional writeback-cache between the active and passive controller.  This particular VRTX chassis has two M520 blades and one M620 blade all using the shared storage within the chassis.  So, what you end up with is a potent virtualization platform that can provide small to medium businesses with more than enough horsepower and storage to support their entire organization using vSphere 6 while providing it in a highly available fashion (multiple blades, redundant PERC controllers).  Or, if you’re looking for a solid VDI setup look no further!  The Dell VRTX can be loaded up with up to 4 half-height blades chock full of memory, connected with fast 10 GBe internal networking, all running on storage backed by up to 25 2.5″ SAS or SSD storage.  25 SAS drives can pull decent IOPS alone, but add some SSD caching on top and it will rip!  This thing, now that it’s fully supported both from a caching standpoint and vSphere standpoint, is a pretty darned powerful solution.

My only gripe with the VRTX is that there is an option of having an active/passive PERC8 controller but in order to update the firmware you have to shut every server off.  I like being able to update firmware in other storage arrays with no downtime by failing back and forth between the controllers.  Dell should try and work on this and then I think the VRTX would be near perfect.

Thanks for reading!  I will be bringing the other M520 and M620 in this chassis up to date and upgrading them to ESXi 6.0 so that I can cluster them for HA in a development environment.  Stay tuned!

Repost from - http://www.jonkensy.com/dell-vrtx-officially-supports-esxi-6-0/


Dell VRTX
slava_boor
Поступил к нам на тестирование Dell VRTX.
Позиционируют его как мини-блэйд (4 лезвия) со встроенной системой хранения данных  (25 дисков) для небольших компаний,  удаленных офисов.


Плюсы: все в одном корпусе, сервера и система хранения данных; хорошая производительность  RAID-0/1/10/5/6, причем созданные lun-ы из дисков можно назначить как конкретному серверу, так и расшарить для нескольких/всех серверов (кластеризация с общим хранилищем); из коробки поддерживает  ESXi 5.1; есть 8 pci-e для установки плат расширения с пробросом к любому из серверов; ОООчень тихий.
Минусы: сервера пришли с проблемной прошивкой 1.50.50 для iDRAC7 - не загружался полностью web-интерфейс. Пришлось шить 1.51.51. Через web-интерфейс эту процедуру выполнить не удалось.
Решение:
- распаковываем файл,
- подымаем tftp-сервер 10.10.0.2;
- создаем в корне tftp директорию firmimg.d7, в ней размещаем файл firmimg.d7, полученный при распаковке;
- далее подключаемся к idrac по ssh: (по умолчанию root/calvin)
ssh root@10.10.8.86
root@10.10.8.86's password: *******
/admin1-> racadm fwupdate -g -u -a 10.10.0.2 -d firmimg.d7
Наслаждаемся доступом к iDRAC.
Далее было решено поставить Vmware Esxi 5.5 с customize на эти два сервера http://www.dell.com/support/drivers/us/en/04/DriverDetails?driverId=20VNP&fileId=3285029028#OldVersion
Но как на зло не оказалось драйверов на PERC RAID.
Распаковываем и закидываем его на esxi, устанавливаем:
esxcli software vib install -v /tmp/scsi-megaraid-sas-06.801.52.00-1vmw.500.0.0.472560.x86_64.vib
Впечатления от железки остались очень даже положительные.

Навіны айчыннага інтэрнэту
slava_boor
Оригинал взят у a_sad_one в Навіны айчыннага інтэрнэту
Прыйшоў ліст ад правайдара кардшарынгу:

Уважаемы пользователи из Белоруссии(цьху!)
В связи с блокировкой домена zargacum.net на территории Белоруссии,
добавлены еще домены:
...
servX.belsharing.net -сервера, где Х номер сервера

І дакладна:

l@amd:~$ dig +short @82.209.240.241 A zargacum.net
;; connection timed out; no servers could be reached
l@amd:~$ dig +short @82.209.240.241 A sex.com
206.125.164.225
l@amd:~$ dig +short @8.8.8.8 A zargacum.net
208.94.146.71
208.94.146.80
208.94.146.81
208.94.146.70



Заўважце, прыкрылі не на ДНСах для дзяржкантораў, с заблякаванымі хартыямі і ўкантактамі, а для простага люду. Хутчэй за ўсё, прыкрылі ўціхую, бо афіцыйна праз суд і г.д. гэта ня зробіш -- у Беларусі афіцыйна не распаўсюджваецца ніводны спадарожнікавы DTH-пакет.

Наколькі разумею, прычыны можа быць дзьве:
болей верагодная -- папрасілі кабельшчыкі, якія рэальна губляюць грошы з-за таго, што народ ставіць капеешныя талеркі і глядзіць крадзены кантэнт зь неба,
меней верагодная -- чарговы заскок уладаў, хоць шчыра не разумею, нашто ім блякаваць шарынг пры адкрытым інтэрнэце, тым больш пераважна ён выкарыстоўваецца дзеля нэйтральных камэрцыйных каналаў са спортам ды парнухай.

Карацей, навіны ня радуюць.


Лекция о глобальной коррупции в банковской системе
slava_boor
Оригинал взят у alex_lebedev в Лекция о глобальной коррупции в банковской системе

Правительство в ...
slava_boor
Лукашенко отправит правительство в отставку в случае необеспечения стабильности в стране...

Но прошло полгода и песня звучит намного грустнее:


Паника !
slava_boor
http://nbrb.biz/panic/

?

Log in