IBM Storwize V7000 Unified - descrierea, conectarea și configurarea sistemelor de stocare. IBM Storwize V7000 Unified - descrierea, conectarea și configurarea sistemelor de stocare Organizarea unui depozit de date

Postarea de astăzi se va concentra pe IBM Storwize V7000 Unified.

Să ne uităm la problemele de conectare și inițializare și, de asemenea, să efectuăm un mic test de performanță.

În primul rând, câteva informații de bază despre:

IBM Storwize V7000 Unified este un sistem unificat de stocare a datelor cu capacitatea de a oferi simultan acces la bloc și fișiere (SAN și NAS). Acces la fișiere prin protocoale de fișiere NFS/CIFS/FTP/HTTPS/SCP. Precum și replicarea fișierelor locale și la distanță. Ei bine, plus toate utilitatea și bunătățile inerente Storwize V7000 original și acestea sunt: ​​Thin Provisioning (alocarea virtuală a spațiului pe disc), FlashCopy (crearea de instantanee și clone de volume), Easy Tier (stocare pe mai multe niveluri), Migrarea datelor (migrarea datelor), Performanță în timp real, Metro și/sau Global Mirror (replicare la distanță), Virtualizare externă (virtualizarea sistemelor de stocare externe), Comprimare în timp real (comprimare a datelor).

Sistemul este format din V7000 în sine și două module de fișiere (un fel de sistem x server cu software specializat instalat pe el) unite într-un cluster sub controlul unei singure interfețe grafice, așa cum se spune la IBM - un sistem, un control, o singură soluție unificată.

Instalarea și inițializarea sistemului este destul de simplă, principalul lucru este să vă asigurați că comutarea este corectă și că aveți o înțelegere clară a procedurii și, de asemenea, nu strica să vizitați Centrul de informare unificat IBM Storwize V7000 (http:/ /pic.dhe.ibm.com/infocenter/storwize/unified_ic /index.jsp?topic=%2Fcom.ibm.storwize.v7000.unified.132.doc%2Fmanpages%2Fdetachnw.html)

Exemplu de comutare de sistem IBM Storwize V7000

Pentru a inițializa, efectuați următoarea procedură:


Faceți clic pe „Launch GUI” și browserul se va deschide conform IP-ului specificat în elementul Management IP, unde vom vedea procesul de inițializare a sistemului. După finalizare, după specificarea tuturor parametrilor necesari, ne așteaptă o interfață grafică care este deja familiară, dar plină cu elemente noi.

Dacă ceva nu a mers prost și a apărut o problemă în timpul inițializării, ar trebui să acordați atenție fișierului „satask_result.html” aflat pe unitatea flash cu utilitar; de regulă, acesta conține numărul erorii din cauza căreia a apărut eșecul. Este puțin probabil ca reinițializarea să reușească dacă cel puțin unul dintre elementele sistemului a fost deja configurat, așa că toate setările trebuie resetate. Resetarea se efectuează după cum urmează: pe sistemul de stocare în sine, trebuie să mergeți la interfața grafică de serviciu a controlerelor (adresa IP poate fi schimbată folosind același utilitar InitTool, adresa implicită este 192.168.70.121/122), comutați nodul 1 și nodul 2 în modul service („Introduceți” starea serviciului”), apoi în fila „Gestionați sistem” ștergeți informațiile de sistem ale nodului selectat, apoi accesați fila „Configurare carcasă” și resetați ID-ul sistemului (bifați „ Resetați caseta ID-ul sistemului și faceți clic pe „Modificare”), această secvență de acțiuni trebuie făcută pentru ambele controlere (selectând pe rând nodul 1 și nodul 2 din fila „Acasă”), după care trebuie să reporniți sistemul de stocare. Pentru a șterge configurația pe modulele de fișiere, trebuie să reinstalați sistemul de pe discul inclus, după executarea comenzilor pe modulele încărcate, nume de utilizator/parolă (rădăcină/Passw0rd), apoi ( $ rm -rf /persist/*), și verificați dacă fișierul a fost șters ( $ ls -ahl /persist/*), introduceți discul și reporniți ( $reporniți), instalarea va începe automat după confirmare (apăsați „Enter”).

Există mai multe grafice ale performanței sistemului cu acces bloc.

Gazdă, OS Windows Server 2012, a testat două discuri locale prezentate prin FC, unul de 100Gb cu RAID10 de 4 SSD de 200Gb și al doilea de 100Gb cu un pool format din 3 RAID5, care conține 19 discuri SAS (300Gb 15k), două. Grupurile RAID au inclus șapte discuri, iar al treilea grup avea cinci. Testarea a fost efectuată cu programul IOmeter, au fost utilizate două specificații „100%Random-8k-70%Read” - testare în blocuri de 8kb, 100% acces aleatoriu, 70% operațiuni de citire, 30% scriere. Și „Max Throughput-50%Read” - test în blocuri de 32 kb, acces 100% secvenţial, 50% operațiuni de citire și scriere. Adâncimea cozii avea o valoare de 64.

Aș dori să arăt cât de ușor este să configurați un sistem de stocare a datelor de la IBM. Mulțumiri speciale lui Dmitry K. din Orenburg pentru că a furnizat capturile de ecran, care nu a fost leneș și a capturat procesul de instalare.

Cea mai de bază diagramă:

  • Sistem de stocare IBM Storwize v3700 standard cu capacitatea de a conecta servere prin iSCSI și SAS. S-au instalat 4 discuri de 600Gb
  • două servere IBM 3650 m4, fără discuri locale, cu două carduri SAS HBA cu un singur port
  • conexiune cross-to-cross, tolerant la erori - fiecare adaptor HBA de server este conectat la propriul controler de stocare

Sarcina este după cum urmează:

  1. Conectați-vă la sistemul de stocare pentru gestionare
  2. Actualizați firmware-ul pentru a accepta conexiuni SAS
  3. Creați matrice de pe discuri, nivelul RAID 10
  4. Deoarece avem servere fără hard disk, creăm un LUN separat pentru fiecare server pentru a instala sistemul de operare Windows Server 2012
  5. Creăm un singur LUN comun care va fi accesibil ambelor servere. Va fi folosit pentru a crea un cluster MS SQL 2012, mai precis pentru stocarea bazelor de date
  6. Sarcina nu implică utilizarea virtualizării

Să începem configurarea

1

Sistemul de stocare vine cu o unitate flash specială; este folosită pentru configurarea inițială, și anume setarea parolei de administrator și adresa IP a serviciului pentru conectarea la interfața web. De pe unitatea flash de pe computer, rulați utilitarul InitTool.bat

2

Deoarece tocmai am scos sistemul de stocare din cutie, selectați opțiunea Creați un nou sistem

3

Setăm adresa IP prin care ne vom conecta la sistemul de stocare.

4

Procesul de inițializare a sistemului:

  1. Scoatem în siguranță dispozitivul de pe computer și scoatem unitatea flash.
  2. Ne uităm la unul dintre controlerele sistemului de stocare. Va trebui să introducem unitatea flash într-unul dintre conectorii de pe interfețele de gestionare a rețelei. Dar înainte de asta, trebuie să vă asigurați că în partea dreaptă sus a controlerului, trei lumini indicatoare trimit semnalele corecte ale semaforului, cel din stânga este aprins, cel din mijloc clipește, cel din dreapta este stins.
  3. După ce unitatea flash este plasată într-un port USB (oricare). Pictograma din dreapta (exclamație) începe să clipească. Trebuie să așteptați până când nu se mai stinge, după care puteți elimina unitatea flash și o puteți returna înapoi pe computer pentru a finaliza pașii expertului.

5

Printr-un browser (se recomanda IE8 sau Firefox 23+) mergem la interfata web.

Parola de conectare implicită pentru superutilizator este passw0rd (separată prin zero)
Acum este momentul să actualizați firmware-ul; pentru a face acest lucru, accesați meniul Setări -> General -> Actualizați codul mașinii

Firmware-ul a fost descărcat în prealabil de pe site-ul oficial ibm.com. În cazul nostru, aceasta este versiunea 7.1.0.3 (build 80.3.1308121000). Include un utilitar de testare Upgrade, mai întâi îl încărcăm în sistemul de stocare și apoi firmware-ul în sine.

6

Sistemul de stocare a detectat automat 4 discuri instalate. Sistemul a alocat trei dintre ele la POOL și a alocat unul la rezervă.

Dacă ar exista mai multe discuri, ar putea avea sens să lăsați o astfel de setare automată. În cazul nostru, este mai bine să repartiționăm discurile în mod diferit.

7

Ștergerea pool-ului creat automat

8

Primim 4 discuri gratuite din care vom crea RAID 10

9

Faceți clic pe Configurare stocare, apoi selectați ce RAID dorim să creăm și câte discuri vor fi folosite pentru acesta.

10

Setați numele pool-ului nou creat.

Ca să nu se încurce în termeni. Creăm un RAID sau o matrice din discuri libere, spațiul liber rezultat este Pool. Apoi vom tăia însuși spațiul pool-ului în bucăți, așa-numitele LUN-uri sau Volume, iar acum acestea pot fi prezentate serverelor (gazde).

11

Piscina a fost creată

12

Creați un nou LUN în pool

13

Nu este vizibil în captură de ecran, dar setăm dimensiunea LUN

14

Astfel, folosind vrăjitorul de creare LUN, facem 3 luni.

După cum era planificat, două de 100 Gb fiecare pentru sistemele de operare pentru server. Și o dimensiune comună de 500 Gb pentru crearea unui cluster MS SQL 2012

15

Acum trebuie să spuneți sistemului de stocare care servere (gazdă) sunt conectate la acesta. În configurația de bază există doar două opțiuni de conectare - iSCSI și SAS.

Avem două servere care sunt conectate la Storwize v3700 prin SAS

16

La acest pas, indicăm sistemului de stocare că primul nostru server este conectat la acesta cu două cabluri SAS, care în server sunt conectate la două carduri SAS HBA cu identificatori (16 cifre)

Astfel, adăugăm ambele servere, fiecare cu doi identificatori.

17

Prezentăm LUN-urile serverelor. Cu alte cuvinte, atribuim drepturi de acces.

În captură de ecran, HOST_LUN_TOP este destinat doar primului server, deoarece sistemul său de operare va fi instalat pe el. Iar al doilea server nu poate vedea acest LUN.
Spre deosebire de SQL_LUN, care trebuie să fie accesibil ambelor servere, deoarece bazele de date cluster MS SQL vor fi localizate pe acesta.

Pentru a configura și gestiona în continuare sistemele de stocare din seria DS35xx de la IBM, se folosește programul DS storage manager, cea mai recentă versiune poate fi descărcată de pe site-ul oficial, desigur, după înregistrare. Există versiuni ale programului pentru diferite sisteme de operare, Linux, Windows, Mac, HPUX

Aici, este o idee bună să descărcați cele mai recente actualizări de firmware pentru controlerele sistemului de stocare. În caz contrar, este posibil ca sistemul de stocare să nu vadă discuri sau adaptoare HBA în servere sau vor apărea alte probleme conexe.

Nu știu de ce, dar mulți oameni au probleme în găsirea și descărcarea fișierelor descărcabile pe site-ul IBM. Accesați Ibm.com -> Asistență și descărcări -> Remedieri, actualizări și drivere -> Găsire rapidă-> în bara de căutare „DS3500 (DS3512, DS3524)” -> Vizualizați descărcările DS3500 (DS3512,DS3524). Portalul IBM nu funcționează întotdeauna corect, așa că dacă nu funcționează, încercați un alt browser.

Firmware-ul pentru controler arată astfel

Fișiere pentru descărcarea managerului de stocare DS, deci



După instalarea și lansarea programului, vi se solicită să selectați o metodă pentru a găsi sistemul de stocare. Automat scanează rețeaua și caută un DS35xx conectat; în Manual trebuie să introduceți manual adresele IP ale ambelor controlere ale sistemului nostru de stocare. Pentru comoditate, adresele implicite ale interfeței de gestionare sunt scrise pe sistemul de stocare însuși sub porturi. Dacă DHCP rulează în rețea, atunci adresele vor fi obținute automat.



Vedem că pentru toleranța la erori, în fiecare controler sunt încorporate două porturi de gestionare, dar, de obicei, primele porturi ale fiecărui controler sunt folosite pentru management.


Schema de conectare

Înainte de a începe configurarea, trebuie să vă imaginați ce doriți să obțineți în cele din urmă; dacă nu există înțelegere, atunci nu ar trebui să începeți. Să facem cea mai simplă schemă, să conectăm două servere la sistemul de stocare conform schemei.


Fiecare server are două adaptoare SAS HBA, pentru cei care nu știu, aceasta este doar o placă PCI-E cu o intrare SAS. Două HBA-uri sunt instalate pentru toleranță la erori; dacă unul dintre controlerele din sistemul de stocare eșuează, lucrul va continua prin celălalt. Prin aceeași logică, sistemul este protejat de probleme cu cablul SAS sau adaptorul HBA din server.

Înființat. Logice.

Avem un sistem de stocare cu discuri în el. Mai întâi, trebuie să asamblam un fel de RAID (matrice) de pe discuri, apoi să creăm un volum logic (LUN) pe acest RAID, apoi să prezentăm acest volum serverelor (mapping) astfel încât să îl poată vedea și să poată lucra cu el . Aceasta este logica.

Acum, în ordine. Voi efectua toate manipulările într-un simulator, care poate fi descărcat de pe site-ul oficial de stocare IBM. Interfața nu este exact aceeași cu ceea ce veți vedea pe un DS3524 sau DS3512 real
1.. Am selectat anterior metoda automată de căutare a unui sistem de stocare, sistemul l-a găsit și conectat, sistemul de stocare este afișat în consolă.

2.. Faceți clic dreapta pe sistemul de stocare și selectați Gestionare pentru a începe configurarea.

3.. Vrăjitorul se deschide într-o fereastră nouă, dar... Vreau să arăt o secvență universală de acțiuni, închideți-o.

4.. În fila Vizualizare logică/fizică vedem spațiu pe disc nealocat. Există două tipuri de discuri în sistemul de stocare simulat; le vom configura pe cele obișnuite SATA. Mai întâi creăm o matrice (RAID)



6.. Setați un NUME pentru matricea noastră


7.. Alegem ce RAID dorim să obținem. Nu vedem RAID 10, pentru a-l crea trebuie să selectați RAID 1
8.. Și apoi vrăjitorul explică că dacă creați RAID 1 de pe patru sau mai multe discuri, atunci 10 RAID vor fi create automat (sau 1+0, același lucru)
9.. Alegerea de a crea un RAID de 38 de discuri

10.. După creare, pornește automat vrăjitorul de creare a volumului (LUN), acesta poate fi lansat și de pe consolă, ca și în pasul 4, doar trebuie să selectați matricea creată anterior.

11.. Trebuie să indicați dimensiunea LUN-ului, în cazul meu 8 Tb (total gratuit 17,6 Tb) și să veniți cu un nume pentru volum
12.. Un punct important: dacă știm ce sistem de operare va fi instalat pe acest LUN, atunci trebuie să-l specificăm. Pentru VMware există și o linie, pentru XenServer este selectat Linux. Dar din anumite motive nu am aceste linii în simulator
13.. După crearea matricei și a LUN-ului, le vedem în consolă
14.. Acum trebuie să mergeți la o altă filă și să acordați acces la acest server LUN. Vedem că grupul implicit a fost creat în mod implicit și LUN1 este disponibil pentru acest grup. Trebuie doar să adăugăm serverul nostru (mai întâi unul, apoi celălalt) la acest grup, astfel încât să se poată conecta la LUN1.

15.. Faceți clic dreapta pe Default Group, Define -> Host

16.. Fiecare dintre serverele noastre are două HBA-uri SAS și prin intermediul acestora are loc conexiunea la sistemul de stocare. Sistemul de stocare poate identifica serverul cu precizie prin adaptoarele HBA sau, mai precis, prin „identificatorul” unic al acestora.

Setați numele gazdei (am ESX1). Selectăm doi „identificatori” care aparțin serverului la care ne conectăm. Puteți vedea ce identificatori are serverul conectându-vă la gazda ESXi direct prin vSphere Client sau prin vCenter Server. Acolo, uitați-vă în secțiunea „adaptoare de stocare”.

Mutați doi „identificatori” din coloana din stânga la dreapta. Apoi selectați fiecare „identificator” și faceți clic pe butonul Editați pentru a adăuga o descriere. Această procedură a fost inventată pentru a nu se confunda într-un număr mare de identificatori.

În simulatorul meu, există niște zerouri în loc de „identificatori” unici, nu fiți atenți, totul va fi așa cum ar trebui.

17.. Acum selectați sistemul de operare gazdă, dacă VMware, atunci selectați VMware

18.. După aceasta, îți vei vedea gazda în consolă și datorită faptului că se află în Grupul implicit, LUN1 va fi disponibil pentru acesta.

Concluzie. S-a dovedit a fi un articol lung, în practică totul se întâmplă mult mai repede, trebuie doar să faceți clic pe toți pașii de câteva ori și procesul de conectare a sistemelor de stocare de la IBM nu va mai cauza probleme.

Configurarea unei conexiuni iSCSI este puțin mai complicată. Vă sfătuiesc să alegeți fie SAS, fie FC.

Clusterele vă permit să vă scalați configurația IBM® WebSphere Portal. Clusterele oferă, de asemenea, disponibilitate ridicată pentru aplicațiile J2EE, deoarece, în cazul unei eșecuri, cererile sunt transmise automat către servere sănătoase. Un cluster poate fi configurat în diferite moduri: orizontal, vertical, multiplu și dinamic.

Următoarea ilustrație arată o configurație de cluster orizontală în care WebSphere Portal instalat pe mai multe servere sau în mai multe profiluri pe un server fizic. O configurație cu mai multe servere reduce numărul de eșecuri individuale, dar necesită software suplimentar, cum ar fi servere. O configurație cu mai multe profiluri reduce, de asemenea, numărul de defecțiuni individuale. Necesită mai puțin hardware suplimentar decât o configurație cu mai multe servere, dar poate fi în continuare necesar hardware suplimentar, cum ar fi memorie suplimentară. Administratorul de implementare gestionează celula pentru nodurile orizontale ale clusterului.

Pentru a lăsa hardware-ul neschimbat, puteți configura și elemente de cluster virtual pe un singur nod. În mod obișnuit, grupurile mari de portal oferă scalare orizontală și verticală. Exemplu: Pot exista patru noduri de portal, fiecare conținând cinci membri cluster, pentru un total de douăzeci de membri cluster.

Ca răspuns la feedback-ul clienților, sunt furnizate instrucțiuni pentru configurarea WebSphere Portal pentru fiecare sistem de operare. Selectați sistemul dvs. de operare pentru a începe procesul.

  1. Pregătirea sistemului de operare IBM i într-un mediu cluster
    Vedeți informații despre configurarea sistemului de operare cu care să funcționeze IBM WebSphere Portal. Dacă instalați alte componente, pot fi necesari pași suplimentari; Vă rugăm să consultați documentația pentru aceste componente.
  2. Pregătiți nodul primar pe IBM i
    Înainte de a crea un mediu cluster, trebuie să instalați IBM WebSphere Portal pe nodul primar și apoi configurați baza de date și managerul de implementare a rețelei.
  3. Creați și adăugați un nou profil Deployment Manager pe IBM i
    Într-un mediu de producție, Deployment Manager trebuie instalat pe un server la distanță, nu pe același server ca IBM WebSphere Portal. Pentru a crea un profil de Manager de implementare la distanță, utilizați Instrumentul de gestionare a profilurilor sau comanda manageprofiles. Într-un mediu de testare sau dezvoltare, Deployment Manager poate fi instalat pe sistemul dumneavoastră local utilizând IBM Installation Manager. Dacă instalați un profil Deployment Manager la distanță, urmați pașii pentru a crea și adăuga un profil Deployment Manager. Omite acești pași dacă instalați un profil local Deployment Manager utilizând Installation Manager pe nodul principal.
  4. Crearea unui cluster pe IBM i
    După instalare IBM WebSphere Portal Pe nodul primar, configurând baza de date la distanță și pregătind nodul primar pentru a comunica cu Managerul de implementare, puteți crea un cluster static pentru a gestiona cererile de comutare.
  5. Pregătirea serverului web când portalul este instalat pe IBM i într-un mediu cluster
    Instalați și configurați modulul server web furnizat de IBM WebSphere Application Server, pentru a configura serverul web cu care să interacționeze IBM WebSphere Portal.
  6. IBM i Cluster: Pregătirea registrelor utilizatorilor
    Instalați și configurați un server LDAP ca registru de utilizatori pentru a stoca informații despre utilizatori și pentru a identifica utilizatorii într-un mediu de producție în cluster.

  7. Configurați protecția registrului utilizatorilor în IBM WebSphere Portal pentru a proteja serverul de accesul neautorizat. Puteți configura un registru de utilizatori LDAP autonom sau puteți adăuga registre de utilizatori LDAP sau Bază de date la magazinul federalizat implicit. Odată ce registrul de utilizatori este configurat, puteți adăuga domenii pentru portaluri virtuale sau o bază de date secundară pentru a stoca atribute care nu pot fi stocate în registrul de utilizatori LDAP.
  8. Furnizarea membrilor cluster suplimentari pe IBM i
    După instalarea și configurarea nodului principal, puteți crea noduri suplimentare. Puteți instala IBM WebSphere Portal pe fiecare nod și apoi configurați nodul pentru a accesa baza de date și registrul de utilizatori înainte de a-l adăuga la cluster.
  9. Cluster IBM i: Reglare fină a serverelor
    Reglarea fină a serverelor dumneavoastră joacă un rol important în asigurarea faptului că mediul dumneavoastră WebSphere Portal funcționează conform așteptărilor. WebSphere Portal nu este reglat inițial pentru producție, așa că pentru performanță optimă, examinați și urmați procedurile din Ghidul de optimizare IBM WebSphere Portal. Dacă ghidul de reglare fină nu este disponibil pentru versiunea curentă a WebSphere Portal, utilizați ghidul pentru ediția anterioară.
  10. Configurarea căutării într-un cluster IBM i
    IBM WebSphere Portal oferă două opțiuni de căutare diferite. Puteți utiliza ambele capabilități de căutare într-un mediu grupat.
  11. Configurarea mai multor clustere pe IBM i
    Grupuri de celule suplimentare sunt create aproape în același mod ca primul, cu câteva excepții. De fapt, noul profil va fi destinat a fi utilizat ca profil principal, conform terminologiei cluster IBM WebSphere Portal, și va fi folosit ca bază pentru noua definiție a unui cluster. Aceasta reproduce procesul de creare a primului cluster dintr-o celulă. În timpul procesului de distribuție, dacă există aplicații pe acest nou nod în celulă (deoarece sunt utilizate de primul cluster), Managerul de implementare nu va permite adăugarea acestora. După distribuire, aplicațiile care există deja în celulă nu sunt expuse serverului WebSphere_Portal de pe nodul nou adăugat; prin urmare, aplicațiile existente ar trebui reconectate la noul server distribuit pentru a restabili lista de aplicații. Astfel, în funcție de configurația noului profil, unele aplicații vor fi partajate între alte clustere existente, iar unele vor fi unice pentru acest nou profil.
  12. Partajarea domeniilor bazei de date între clustere pe IBM i
    Dacă mediul dvs. de producție constă din mai multe clustere în aceeași celulă și mai multe clustere în celule diferite, puteți acorda acces la domeniile bazei de date tuturor clusterelor pentru a suporta redundanță și failover. Date IBM WebSphere Portal stocate în mai multe domenii de baze de date cu cerințe de disponibilitate diferite în funcție de configurația mediului de producție. Dacă există mai multe linii de producție, fiecare dintre acestea fiind implementată ca un cluster de servere, utilizarea domeniilor comune de baze de date garantează sincronizarea automată a datelor între liniile de producție.

În acest articol, vom analiza problema instalării și configurării CentOS 7. În acest manual, instalarea versiunii de încercare va fi demonstrată. WebSphere, dar nu este diferit de versiunea completă, deci nu contează.

Deci să mergem!

1) Pregătirea și configurarea sistemului de operare

În munca noastră vom folosi noul CentOS 7. În mod surprinzător, din cutie are nevoie de multă finisare pentru a funcționa, așa că fiți pregătit pentru asta. Deci, instalați versiunea minimă fără grafică și să mergem. Prin interfață - configurați imediat o rețea astfel încât să existe Internet... asta vă va face viața mult mai ușoară :)

Să instalăm software-ul de bază... care din anumite motive nu este inclus în pachet:

Yum, instalează net-tools nano wget

Acum să ne verificăm nume de gazdăși o vom repara gazde(editați după cum doriți):

Nano /etc/hostname nano /etc/hosts

Ifconfig -a

Pentru a remedia acest lucru, mai întâi trebuie să îl remediați puțin grub:

Nano /etc/default/grub

La sfârșitul rândului „ GRUB_CMDLINE_LINUX"trebuie sa adaug" net.ifnames=0 biosdevname=0„. Veți obține așa ceva (nu neapărat 1 în 1):

GRUB_CMDLINE_LINUX="rd.lvm.lv=rootvg/usrlv rd.lvm.lv=rootvg/swaplv crashkernel=auto vconsole.keymap=usrd.lvm.lv=rootvg/rootlv vconsole.font=latarcyrheb-hgunb16 net.ifnames=0 biosdevname=0"

Redenumim interfața noastră de rețea în normal, clasic „ eth0” și să reconstruim:

Mv /etc/sysconfig/network-scripts/ifcfg-ens32 /etc/sysconfig/network-scripts/ifcfg-eth0 repornire

Configurarea rețelei:

Nano /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" ONBOOT=yes BOOTPROTO=static IPADDR=1.1.4.185 NETMASK=255.255.248.0 GATEWAY=1.1.1.9 DNS1=1.1.1.1.10 DNS1=1.12.1.10

Dezactivează-l pe cel suplimentar Manager de rețea si hai sa reconstruim:

Systemctl oprire NetworkManager systemctl dezactivare repornire NetworkManager

Verificăm dacă sistemul este desemnat ca un fir IPv6:

lsmod | grep -i ipv6

Dacă mesajele conţin referiri la IPv6, dar va fi, apoi trecem la dezactivarea acestuia:

Nano /etc/default/grub

La începutul liniei „ GRUB_CMDLINE_LINUX"trebuie sa adaug" ipv6.disable=1„. Veți obține ceva de genul acesta:

GRUB_CMDLINE_LINUX="ipv6.disable=1 rd.lvm.lv=rootvg/usrlv...

Creați o nouă configurație și salvați rezultatul:

Grub2-mkconfig -o /boot/grub2/grub.cfg

Reporniți:

Să verificăm din nou și să ne asigurăm că totul este bine:

lsmod | grep -i ipv6

Adăugarea la sistem EPEL(tot felul de pachete „încărcate” cu licențe) depozit pentru CentOS 7:

Wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-2.noarch.rpm rpm -ivh epel-release-7-2.noarch.rpm yum repolist

Noul sistem de operare folosește un daemon „master” care controlează ceilalți demoni. Acest systemd, care a fost introdus în locul scripturilor de inițializare învechite init.d. Se folosește și un nou firewall, firewalldîn loc de iptables. Să verificăm funcționarea acestuia și să deschidem porturile de care avem nevoie (9080 și 9443):

Stare Systemctl firewalld firewall-cmd --permanent --zone=public --add-port=9080/tcp firewall-cmd --permanent --zone=public --add-port=9443/tcp systemctl restart firewalld

De fapt, aici se termină configurarea sistemului de operare și trecem direct la instalare IBM WebSphere Application Server Liberty Profile 8.5.5

2) Instalați WebSphere

Vom avea nevoie de un cont IBM. După înregistrarea regulată, puteți descărca orice software (în scopuri de dezvoltare, se mai numește versiune de încercare).

Nu vă permit să descărcați software-ul direct. Descărcăm universal Manager de instalare, iar apoi prin intermediul acestuia putem descărca software-ul de care avem nevoie. Arhivați conținut BASETRIAL.agent.installer.linux.gtk.x86_64.zip despachetați-l în folderul was și apoi încărcați-l pe server în /root

Acordăm permisiuni și începem instalarea:

Chmod -R 775 /root/was cd a fost ./installc -c

Primul lucru, Manager de instalare ne va cere să introducem datele de conectare și parola pentru contul IBM. Apăsați pe p și introduceți acreditările dvs.:

Selectăm doar următoarele elemente pentru instalare (manager de instalare, websphere liberty și java sdk pentru acesta):

Dar nu vom instala remedieri. Nu sunt necesare pentru instalare, în afară de faptul că sunt cu erori și se instalează cu o eroare:

Mesajul final. Ce este instalat și unde:

După aceea, așteptăm. Cât de mult să aștepți? Depinde de viteza de internet și de încărcarea serverului IBM. Va trebui să descărcați aproximativ 500 MB sau chiar mai mult. Ai răbdare... Ce se întâmplă? Programul de instalare își conectează depozitele și descarcă software-ul comandat de pe acesta. Totul este frumos.

Mesajul de instalare reușită arată astfel:

Teoretic, toate acestea se pot instala și prin fișiere de răspuns, fără dialoguri. Dar această opțiune necesită și instalarea deja Manager de instalare, deci în cazul nostru acest lucru nu este relevant..

Deci asta este! am instalat IBM WebSphere Application Server Liberty Profile 8.5.5și necesare pentru funcționarea acestuia Java! Felicitări! Acum ne vom uita la ce putem face în continuare.

3) Configurare WebSphere

a) Pornirea WebSphere

Să creăm serverul nostru de testare:

/opt/IBM/WebSphere/Liberty/bin/server creează PROIECT

Creată. Apare folderul: /opt/IBM/WebSphere/Liberty/usr/servers/ PROIECT Toate setările și modulele viitoare vor fi localizate în acesta. Pentru a lansa această asociere, trebuie să adăugați linia gazdă=’1.1.4.185′ (cu IP-ul nostru), deasupra httpPort=’9080′ (acesta este aici: /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ server.xml ). Un exemplu de astfel de configurare:

Hai sa lansam:

/opt/IBM/WebSphere/Liberty/bin/server porniți PROIECT

Mergând la adresa http://1.1.4.185:9080, vom vedea următoarele:

Aceasta înseamnă că totul este în regulă și sfera web a început.

b) Instalarea modulului de administrare

Acest articol este opțional. Dar cu modulul de administrare este mai convenabil să lucrezi cu sfera web. Prin intermediul acestuia, puteți opri și porni modulele individual, fără a fi nevoie să opriți întregul server.

Deci, instalați acest modul:

/opt/IBM/WebSphere/Liberty/bin/featureManager instalează adminCenter-1.0 --when-file-exists=ignore

Pentru a vă conecta în zona de administrare ca administrator, utilizați contul: admin/parolă. Și sub utilizator: nonadmin/nonadminpwd.

Adresa sa de conectare este: http://1.1.4.185:9080/adminCenter/ Panoul de administrare arată astfel:



Toate! Modulul de administrare este instalat.

c) Instalarea unui modul de extensie

De asemenea, trebuie să instalați pe Websphere extins pachete (un set extins de biblioteci și binare), acest lucru se face extrem de simplu:

/opt/IBM/WebSphere/Liberty/bin/featureManager instalează extendedPackage-1.0

d) Instalarea modulelor

Ajungem la partea cea mai interesantă. Instalarea modulelor în Liberty. Cum să facă acest lucru? Există 2 moduri, prin folderul /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ picăturiși /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ aplicații
Din catalog picături modulele sunt preluate și instalate automat. Din catalog aplicații– trebuie să fie înregistrate manual în configurația server.xml. Un exemplu de configurare la care modulul este conectat prin aplicații:

Pentru a rula SP-ul nu în fundal și cu jurnalele, executați comanda:

/opt/IBM/WebSphere/Liberty/bin/server rulează PROIECT

e) Pro

Testarea a verificat că este suficient să copiați folderul /opt/IBM pe alt server și totul va funcționa imediat. Foarte confortabil. Acestea. putem înființa în prealabil societatea mixtă de care avem nevoie și putem furniza întregul pachet software deodată. Și „Liberty Websphere” este foarte ușor și pornește/se oprește foarte repede :)

Publicat