IBM Storwize V7000 Unified - beskrivelse, tilkobling og konfigurasjon av lagringssystemer. IBM Storwize V7000 Unified - beskrivelse, tilkobling og konfigurasjon av lagringssystemer Organisere et datavarehus

Dagens innlegg vil fokusere på IBM Storwize V7000 Unified.

La oss se på tilkoblings- og initialiseringsproblemer, og også gjennomføre en liten ytelsestest.

Først litt bakgrunnsinformasjon om:

IBM Storwize V7000 Unified er et enhetlig datalagringssystem med muligheten til å gi blokk- og filtilgang samtidig (SAN og NAS). Filtilgang via NFS/CIFS/FTP/HTTPS/SCP filprotokoller. Samt lokal og ekstern filreplikering. Vel, pluss all nytten og godsakene som ligger i den originale Storwize V7000, og disse er: Thin Provisioning (virtuell tildeling av diskplass), FlashCopy (opprette øyeblikksbilder og kloner av volumer), Easy Tier (lagring på flere nivåer), Data Migration (datamigrering), sanntidsytelse, Metro og/eller Global Mirror (fjernreplikering), ekstern virtualisering (virtualisering av eksterne lagringssystemer), sanntidskomprimering (datakomprimering).

Systemet består av selve V7000 og to filmoduler (en slags system x-server med spesialisert programvare installert på den) samlet i en klynge under kontroll av et enkelt grafisk grensesnitt, som de sier hos IBM - ett system, en kontroll, én samlet løsning.

Installasjon og initialisering av systemet er ganske enkelt, det viktigste er å sørge for at vekslingen er riktig og har en klar forståelse av prosedyren, og det skader heller ikke å besøke IBM Storwize V7000 Unified Information Center (http:/ /pic.dhe.ibm.com/infocenter/storwize/unified_ic /index.jsp?topic=%2Fcom.ibm.storwize.v7000.unified.132.doc%2Fmanpages%2Fdetachnw.html)

Eksempel på IBM Storwize V7000-systembytte

For å initialisere, utfør følgende prosedyre:


Klikk på "Launch GUI" og nettleseren åpnes i henhold til IP-en som er spesifisert i Management IP-elementet, hvor vi vil se systemets initialiseringsprosess. Etter fullføring, etter å ha spesifisert alle nødvendige parametere, venter en GUI som allerede er kjent, men fylt med nye elementer.

Hvis noe gikk galt og det oppsto et problem under initialiseringen, bør du være oppmerksom på filen "satask_result.html" som ligger på flash-stasjonen med verktøyet; som regel inneholder den nummeret på feilen som skyldes feilen. Reinitialisering vil neppe lykkes hvis minst ett av systemelementene allerede er konfigurert, så alle innstillinger må tilbakestilles. Tilbakestillingen utføres som følger: på selve lagringssystemet må du gå til det grafiske tjenestegrensesnittet til kontrollerene (IP-adressen kan endres ved å bruke samme InitTool-verktøy, standardadressen er 192.168.70.121/122), bytte node1 og node2 til servicemodus («Enter» Service State»), så slett systeminformasjonen til den valgte noden på «Administrer system»-fanen, og gå deretter til «Configure Enclosure»-fanen og tilbakestill system-ID-en (sjekk « Tilbakestill system-ID-boksen og klikk på "Endre"), denne handlingssekvensen må gjøres for begge kontrollerene (velg node1 og node2 på "Hjem"-fanen etter tur), hvoretter du må starte lagringssystemet på nytt. For å slette konfigurasjonen på filmoduler, må du installere systemet på nytt fra den medfølgende disken, etter å ha utført kommandoene på de innlastede modulene, brukernavn/passord (root/Passw0rd), deretter ( $ rm -rf /persist/*), og sjekk at filen er slettet ( $ ls -ahl /persist/*), sett inn disken og start på nytt ( $reboot), vil installasjonen starte automatisk etter bekreftelse (trykk "Enter").

Det er flere grafer over systemytelse med blokktilgang.

Vert, OS Windows Server 2012, testet to lokale disker presentert via FC, en 100 Gb med RAID10 på 4 SSD 200 Gb og den andre 100 Gb med en pool bestående av 3 RAID5, som inneholder 19 SAS-disker (300 Gb 15k), to RAID-gruppene inkluderte syv disker, og den tredje gruppen hadde fem. Testing ble utført med IOmeter-programmet, to spesifikasjoner "100%Random-8k-70%Read" ble brukt - test i 8kb blokker, 100% tilfeldig tilgang, 70% leseoperasjoner, 30% skriving. Og "Max Throughput-50% Read" - test i 32kb blokker, 100% sekvensiell tilgang, 50% lese- og skriveoperasjoner. Kødybden hadde en verdi på 64.

Jeg vil gjerne vise hvor enkelt det er å sette opp et datalagringssystem fra IBM. Spesiell takk til Dmitry K. fra Orenburg for å ha levert skjermbildene, som ikke var lat og fanget opp installasjonsprosessen.

Det mest grunnleggende diagrammet:

  • IBM Storwize v3700 lagringssystem som standard med mulighet for å koble til servere via iSCSI og SAS. Installerte 4 disker på 600Gb
  • to IBM 3650 m4-servere, uten lokale disker, med to enkeltports SAS HBA-kort
  • kryss-til-kryss-tilkobling, feiltolerant - hver server HBA-adapter er koblet til sin egen lagringskontroller

Oppgaven er som følger:

  1. Koble til lagringssystem for administrasjon
  2. Oppdater fastvaren for å støtte SAS-tilkoblinger
  3. Lag array fra disker, RAID nivå 10
  4. Siden vi har servere uten harddisker, oppretter vi en egen LUN for hver server for å installere operativsystemet Windows server 2012
  5. Vi lager ett felles LUN som vil være tilgjengelig for begge serverne. Den vil bli brukt til å lage en MS SQL 2012-klynge, mer presist for lagring av databaser
  6. Oppgaven innebærer ikke bruk av virtualisering

La oss begynne å sette opp

1

Lagringssystemet leveres med en spesiell flash-stasjon; den brukes til innledende konfigurasjon, nemlig å angi administratorpassordet og tjenestens IP-adresse for tilkobling til webgrensesnittet. Kjør verktøyet InitTool.bat fra flash-stasjonen på datamaskinen

2

Siden vi nettopp tok lagringssystemet ut av esken, velg alternativet Opprett et nytt system

3

Vi angir IP-adressen som vi vil koble til lagringssystemet med.

4

Systeminitialiseringsprosess:

  1. Vi fjerner enheten trygt fra datamaskinen og tar ut flash-stasjonen.
  2. Vi ser på en av lagringssystemkontrollerne. Vi må sette inn flash-stasjonen i en av kontaktene påittene. Men før det må du sørge for at på øvre høyre side av kontrolleren sender tre indikatorlamper de riktige semaforsignalene, den venstre er på, den midterste blinker, den høyre er av.
  3. Etter at flash-stasjonen er plassert i en USB-port (hvilken som helst). Det høyre ikonet (utrop) begynner å blinke. Du må vente til den slutter å gå ut, hvoretter du kan fjerne flash-stasjonen og returnere den tilbake til datamaskinen for å fullføre veiviserens trinn.

5

Gjennom en nettleser (IE8 eller Firefox 23+ anbefales) går vi til nettgrensesnittet.

Standard påloggingspassord for superbruker er passw0rd (atskilt med null)
Nå er tiden inne for å oppdatere fastvaren; for å gjøre dette, gå til menyen Innstillinger -> Generelt -> Oppgrader maskinkode

Fastvaren ble lastet ned på forhånd fra det offisielle nettstedet ibm.com. I vårt tilfelle er dette versjon 7.1.0.3 (bygg 80.3.1308121000). Den inkluderer et oppgraderingstestverktøy, først laster vi det inn på lagringssystemet, og deretter selve fastvaren.

6

Lagringssystemet oppdaget automatisk 4 installerte disker. Systemet tildelte tre av dem til POOL, og tildelte en til hot spare.

Hvis det var flere disker, kan det være fornuftig å forlate en slik automatisk innstilling. I vårt tilfelle er det bedre å ompartisjonere diskene annerledes.

7

Sletter det automatisk opprettede bassenget

8

Vi får 4 gratis disker som vi skal lage RAID 10 fra

9

Klikk på Konfigurer lagring, velg deretter hvilken RAID vi vil opprette og hvor mange disker som skal brukes til det.

10

Angi navnet på det nyopprettede bassenget.

For ikke å bli forvirret i termer. Vi lager en RAID eller array fra ledige disker, den resulterende ledige plassen er Pool. Deretter vil vi kutte selve bassengplassen i stykker, de såkalte LUN-ene eller Volumet, og nå kan de presenteres for servere (verter).

11

Bassenget er opprettet

12

Lag en ny LUN i bassenget

13

Det er ikke synlig på skjermbildet, men vi angir LUN-størrelsen

14

Ved å bruke LUN-opprettingsveiviseren lager vi 3 måner.

Som planlagt, to 100Gb hver for serveroperativsystemer. Og én vanlig størrelse på 500 Gb for å lage en MS SQL 2012-klynge

15

Nå må du fortelle lagringssystemet hvilke servere (vert) som er koblet til det. I den grunnleggende konfigurasjonen er det bare to tilkoblingsalternativer - iSCSI og SAS.

Vi har to servere som er koblet til Storwize v3700 via SAS

16

På dette trinnet indikerer vi til lagringssystemet at vår første server er koblet til den med to SAS-kabler, som i serveren er koblet til to SAS HBA-kort med identifikatorer (16 sifre)

Dermed legger vi til begge serverne, hver med to identifikatorer.

17

Vi presenterer LUN-er til servere. Vi tildeler med andre ord tilgangsrettigheter.

I skjermbildet er HOST_LUN_TOP kun ment for den første serveren, fordi operativsystemet vil bli installert på den. Og den andre serveren kan ikke se denne LUN.
I motsetning til SQL_LUN, som må være tilgjengelig for begge serverne, fordi MS SQL-klyngedatabasene vil være plassert på den.

For å konfigurere og videre administrere lagringssystemene i DS35xx-serien fra IBM, brukes DS Storage Manager-programmet, den nyeste versjonen kan selvfølgelig lastes ned fra den offisielle nettsiden etter registrering. Det finnes versjoner av programmet for forskjellige operativsystemer, Linux, Windows, Mac, HPUX

Her er det en god idé å laste ned de siste fastvareoppdateringene for lagringssystemkontrollere. Ellers kan det hende at lagringssystemet ikke ser disker eller HBA-adaptere på serverne, eller det kan oppstå andre relaterte problemer.

Jeg vet ikke hvorfor, men mange mennesker har problemer med å finne og laste ned nedlastbare filer på IBM-nettstedet. Gå til Ibm.com -> Støtte og nedlastinger -> Reparasjoner, oppdateringer og drivere -> Hurtigsøk-> i søkefeltet "DS3500 (DS3512, DS3524)" -> Se DS3500 (DS3512,DS3524) nedlastinger. IBM-portalen fungerer ikke alltid riktig, så hvis den ikke fungerer, prøv en annen nettleser.

Firmware for kontrolleren ser slik ut

Filer for nedlasting av DS Storage Manager, så



Etter at du har installert og startet programmet, blir du bedt om å velge en metode for å finne lagringssystemet. Automatisk skanner nettverket og ser etter en tilkoblet DS35xx; i Manuell må du manuelt legge inn IP-adressene til begge kontrollerene i lagringssystemet vårt. For enkelhets skyld er standard adskrevet på selve lagringssystemet under portene. Hvis DHCP kjører på nettverket, hentes adressene automatisk.



Vi ser at for feiltoleranse er to administrasjonsporter innebygd i hver kontroller, men vanligvis brukes de første portene til hver kontroller for administrasjon.


Tilkoblingsskjema

Før du begynner å sette opp, må du forestille deg hva du vil oppnå til slutt; hvis det ikke er noen forståelse, bør du ikke begynne. La oss lage den enkleste ordningen, koble to servere til lagringssystemet i henhold til skjemaet.


Hver server har to SAS HBA-adaptere, for de som ikke vet, er dette bare et PCI-E-kort med SAS-inngang. To HBAer er installert for feiltoleranse; hvis en av kontrollerene i lagringssystemet svikter, vil arbeidet fortsette gjennom den andre. Med samme logikk er systemet beskyttet mot problemer med SAS-kabelen eller HBA-adapteren i serveren.

Oppsett. Logikk.

Vi har et lagringssystem med disker i. Først må vi sette sammen en slags RAID (array) fra disker, deretter lage et logisk volum (LUN) på dette RAID, og ​​deretter presentere dette volumet for servere (mapping) slik at de kan se det og kunne jobbe med det . Dette er logikken.

Nå, i rekkefølge. Jeg vil utføre alle manipulasjoner i en simulator, som kan lastes ned på det offisielle IBM-lagringsnettstedet. Grensesnittet er ikke helt det samme som det du vil se på en ekte DS3524 eller DS3512
1.. Vi valgte tidligere den automatiske metoden for å søke etter et lagringssystem, systemet fant og koblet til det, lagringssystemet vises i konsollen.

2.. Høyreklikk på lagringssystemet og velg Administrer for å starte konfigurasjonen.

3.. Veiviseren åpnes i et nytt vindu, men... Jeg vil vise en universell sekvens av handlinger, lukk den.

4.. I kategorien Logisk/Fysisk visning ser vi ikke-allokert diskplass. Det er to typer disker i det simulerte lagringssystemet; vi vil konfigurere de vanlige SATA-ene. Først lager vi en Array (RAID)



6.. Angi et NAVN til matrisen vår


7.. Vi velger hvilken RAID vi vil ha. Vi ser ikke RAID 10, for å lage det må du velge RAID 1
8.. Og så forklarer veiviseren at hvis du oppretter RAID 1 fra fire eller flere disker, vil 10 RAID automatisk opprettes (eller 1+0, det samme)
9.. Velger å lage en RAID på 38 disker

10.. Etter opprettelsen starter volumopprettingsveiviseren (LUN) automatisk, den kan også startes fra konsollen, som i det fjerde trinnet, bare du trenger å velge den tidligere opprettede matrisen.

11.. Du må angi størrelsen på LUN, i mitt tilfelle 8 Tb (totalt gratis 17,6 Tb), og komme opp med et navn for volumet
12.. Et viktig poeng: hvis vi vet hvilket operativsystem som skal installeres på denne LUN, må vi spesifisere det. For VMware er det også en linje, for XenServer er Linux valgt. Men av en eller annen grunn har jeg ikke disse linjene i simulatoren
13.. Etter å ha opprettet Array og LUN, ser vi dem i konsollen
14.. Nå må du gå til en annen fane og gi tilgang til denne LUN-serveren. Vi ser at standardgruppen er opprettet som standard og LUN1 er tilgjengelig for denne gruppen. Vi trenger bare å legge til serveren vår (først den ene, så den andre) til denne gruppen slik at de kan koble til LUN1.

15.. Høyreklikk på Standardgruppe, Definer -> Vert

16.. Hver av våre servere har to SAS HBAer, og det er gjennom dem tilkoblingen til lagringssystemet skjer. Lagringssystemet kan identifisere serveren nøyaktig ved hjelp av HBA-adaptere, eller mer presist, ved deres unike "identifikator".

Angi vertsnavnet (jeg har ESX1). Vi velger to "identifikatorer" som tilhører serveren vi kobler til. Du kan se hvilke identifikatorer serveren har ved å koble til ESXi-verten direkte gjennom vSphere Client eller gjennom vCenter Server. Der, se i delen "lagringsadaptere".

Flytt to "identifikatorer" fra venstre kolonne til høyre. Velg deretter hver "identifikator" og klikk på Rediger-knappen for å legge til en beskrivelse. Denne prosedyren ble oppfunnet for ikke å bli forvirret i et stort antall identifikatorer.

I simulatoren min er det noen nuller i stedet for unike "identifikatorer", ikke ta hensyn, alt vil være som det skal være.

17.. Velg nå vertsoperativsystemet, hvis VMware velger du VMware

18.. Etter dette vil du se verten din i konsollen, og på grunn av at den er i standardgruppen, vil LUN1 være tilgjengelig for den.

Konklusjon. Det viste seg å være en lang artikkel, i praksis skjer alt mye raskere, du trenger bare å klikke deg gjennom alle trinnene et par ganger, og prosessen med å koble til lagringssystemer fra IBM vil ikke lenger forårsake problemer.

Å sette opp en iSCSI-tilkobling er litt mer komplisert. Jeg anbefaler deg å velge enten SAS eller FC.

Klynger lar deg skalere konfigurasjonen din IBM® WebSphere Portal. Klynger gir også høy tilgjengelighet for J2EE-applikasjoner fordi i tilfelle feil blir forespørsler automatisk videresendt til sunne servere. En klynge kan konfigureres på forskjellige måter: horisontal, vertikal, multippel og dynamisk.

Følgende illustrasjon viser en horisontal klyngekonfigurasjon der WebSphere Portal installert på flere servere eller i flere profiler på én fysisk server. En multi-server konfigurasjon reduserer antallet individuelle feil, men krever ekstra programvare som servere. En flerprofilkonfigurasjon reduserer også antallet individuelle feil. Det krever mindre ekstra maskinvare enn en multi-server konfigurasjon, men ytterligere maskinvare, for eksempel ekstra minne, kan fortsatt være nødvendig. Distribusjonsadministratoren administrerer cellen for de horisontale klyngenodene.

For å la maskinvaren være uendret, kan du også konfigurere virtuelle klyngeelementer på en enkelt node. Vanligvis gir store portalklynger både horisontal og vertikal skalering. Eksempel: Det kan være fire portalnoder, som hver inneholder fem klyngemedlemmer, for totalt tjue klyngemedlemmer.

Som svar på tilbakemeldinger fra kunder er det gitt instruksjoner for å konfigurere WebSphere Portal for hvert operativsystem. Velg operativsystemet ditt for å starte prosessen.

  1. Klargjøring av IBM i-operativsystemet i et klyngemiljø
    Se informasjon om hvordan du konfigurerer operativsystemet ditt til å arbeide med IBM WebSphere Portal. Hvis du installerer andre komponenter, kan det være nødvendig med ytterligere trinn; Se gjennom dokumentasjonen for disse komponentene.
  2. Klargjør primærnoden på IBM i
    Før du oppretter et klyngemiljø, må du installere IBM WebSphere Portal på primærnoden og konfigurer deretter database- ogen.
  3. Opprett og legg til en ny Deployment Manager-profil på IBM i
    I et produksjonsmiljø må Deployment Manager installeres på en ekstern server, ikke på samme server som IBM WebSphere Portal. For å opprette en ekstern Deployment Manager-profil, bruk Profile Management Tool eller kommandoen manageprofiles. I et test- eller utviklingsmiljø kan Deployment Manager installeres på det lokale systemet ved hjelp av IBM Installation Manager. Hvis du installerer en ekstern Deployment Manager-profil, følger du trinnene for å opprette og legge til en Deployment Manager-profil. Hopp over disse trinnene hvis du installerer en lokal Deployment Manager-profil ved hjelp av Installation Manager på primærnoden.
  4. Opprette en klynge på IBM i
    Etter installasjon IBM WebSphere Portal På primærnoden, konfigurering av den eksterne databasen og klargjøring av primærnoden til å kommunisere med Deployment Manager, kan du opprette en statisk klynge for å håndtere bytteforespørsler.
  5. Klargjøring av webserveren når portalen er installert på IBM i i et gruppert miljø
    Installer og konfigurer webservermodulen levert av IBM WebSphere Application Server, for å konfigurere webserveren til å samhandle med IBM WebSphere Portal.
  6. IBM i Cluster: Klargjøring av brukerregistre
    Installer og konfigurer en LDAP-server som et brukerregister for å lagre brukerinformasjon og identifisere brukere i et klynget produksjonsmiljø.

  7. Sett opp brukerregisterbeskyttelse i IBM WebSphere Portal for å beskytte serveren mot uautorisert tilgang. Du kan konfigurere et frittstående LDAP-brukerregister eller legge til LDAP- eller databasebrukerregistre til standard forent butikk. Når brukerregistret er konfigurert, kan du legge til omfang for virtuelle portaler eller en sekundær database for å lagre attributter som ikke kan lagres i LDAP-brukerregisteret.
  8. Klargjøring av flere klyngemedlemmer på IBM i
    Etter å ha installert og konfigurert hovednoden, kan du opprette flere noder. Du kan installere IBM WebSphere Portal på hver node og konfigurer deretter noden for å få tilgang til databasen og brukerregisteret før du legger det til i klyngen.
  9. IBM i-klynge: Finjustering av servere
    Finjustering av serverne spiller en viktig rolle for å sikre at WebSphere Portal-miljøet fungerer som forventet. WebSphere Portal er i utgangspunktet ikke innstilt for produksjon, så for optimal ytelse bør du se gjennom og følge prosedyrene i IBM WebSphere Portal Tuning Guide. Hvis finjusteringsguiden ikke er tilgjengelig for gjeldende utgave av WebSphere Portal, bruk veiledningen for forrige utgivelse.
  10. Sette opp søk i en IBM i-klynge
    IBM WebSphere Portal gir to forskjellige søkealternativer. Du kan bruke begge søkefunksjonene i et gruppert miljø.
  11. Sette opp flere klynger på IBM i
    Ytterligere celleklynger lages omtrent på samme måte som den første, med noen få unntak. Faktisk vil den nye profilen være ment å brukes som hovedprofil, i henhold til klyngeterminologien IBM WebSphere Portal, og vil bli brukt som grunnlag for den nye definisjonen av en klynge. Dette replikerer prosessen med å lage den første klyngen i en celle. Under distribusjonsprosessen, hvis det er noen applikasjoner på denne nye noden i cellen (fordi de brukes av den første klyngen), vil ikke Deployment Manager tillate at de legges til. Etter distribusjon blir ikke applikasjoner som allerede finnes i cellen eksponert for WebSphere_Portal-serveren på den nylig lagt til noden; Derfor bør eksisterende applikasjoner kobles til den nye distribuerte serveren for å gjenopprette applikasjonslisten. Avhengig av konfigurasjonen av den nye profilen, vil noen applikasjoner bli delt mellom andre eksisterende klynger, og noen vil være unike for denne nye profilen.
  12. Deling av databasedomener mellom klynger på IBM i
    Hvis produksjonsmiljøet ditt består av flere klynger i en enkelt celle og flere klynger i forskjellige celler, kan du gi tilgang til databasedomener til alle klynger for å støtte redundans og failover. Data IBM WebSphere Portal lagret i flere databasedomener med varierende tilgjengelighetskrav avhengig av konfigurasjonen av produksjonsmiljøet. Hvis det er flere produksjonslinjer, som hver er implementert som en serverklynge, garanterer bruk av felles databasedomener automatisk synkronisering av data mellom produksjonslinjer.

I denne artikkelen vil vi se på spørsmålet om installasjon og konfigurasjon på CentOS 7. I denne håndboken vil installasjonen av prøveversjonen bli demonstrert. WebSphere, men den er ikke forskjellig fra fullversjonen, så det spiller ingen rolle.

Så la oss gå!

1) Klargjøring og konfigurasjon av OS

I vårt arbeid vil vi bruke det nye CentOS 7. Overraskende nok, ut av esken trenger den mye etterbehandling for å fungere, så vær forberedt på dette. Så installer den minimale versjonen uten grafikk og la oss gå. Gjennom grensesnittet - sett opp et nettverk umiddelbart slik at det er Internett... dette vil gjøre livet ditt mye enklere :)

La oss installere den grunnleggende programvaren... som av en eller annen grunn ikke er inkludert i pakken:

Yum installer net-tools nano wget

La oss nå sjekke vår vertsnavn og vi fikser det verter(rediger som du vil):

Nano /etc/vertsnavn nano /etc/hosts

Ifconfig -a

For å fikse dette, må du først fikse det litt grub:

Nano /etc/default/grub

På slutten av linjen " GRUB_CMDLINE_LINUX"må legge til" net.ifnames=0 biosdevname=0". Du får noe sånt som dette (ikke nødvendigvis 1 av 1):

GRUB_CMDLINE_LINUX="rd.lvm.lv=rootvg/usrlv rd.lvm.lv=rootvg/swaplv crashkernel=auto vconsole.keymap=usrd.lvm.lv=rootvg/rootlv vconsole.font=latarcyrheb-sun16 rhgb quiet net.ifnames=0 biosdevname=0"

Vi gir nytt navn til nettverksgrensesnittet vårt til vanlig, klassisk " eth0" og la oss gjenoppbygge:

Mv /etc/sysconfig/network-scripts/ifcfg-ens32 /etc/sysconfig/network-scripts/ifcfg-eth0 omstart

Sette opp nettverket:

Nano /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" ONBOOT=yes BOOTPROTO=static IPADDR=1.1.4.185 NETMASK=255.255.248.0 GATEWAY=1.1.1.9 DNS1=101.NS.

Deaktiver den ekstra Nettverkssjef og la oss gjenoppbygge:

Systemctl stop NetworkManager systemctl deaktiver NetworkManager omstart

Vi sjekker om systemet er utpekt som en tråd IPv6:

lsmod | grep -i ipv6

Hvis meldingene inneholder referanser til IPv6, men det blir det, så fortsetter vi med å deaktivere det:

Nano /etc/default/grub

På begynnelsen av linjen " GRUB_CMDLINE_LINUX"må legge til" ipv6.disable=1". Du får noe sånt som dette:

GRUB_CMDLINE_LINUX="ipv6.disable=1 rd.lvm.lv=rootvg/usrlv...

Opprett en ny konfigurasjon og lagre resultatet:

Grub2-mkconfig -o /boot/grub2/grub.cfg

Start på nytt:

La oss sjekke igjen og sørge for at alt er i orden:

lsmod | grep -i ipv6

Legger til systemet EPEL(alle slags pakker "belastet" med lisenser) repository for CentOS 7:

Wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-2.noarch.rpm rpm -ivh epel-release-7-2.noarch.rpm yum repolist

Det nye operativsystemet bruker en "master"-demon som kontrollerer de andre demonene. Dette systemd, som ble introdusert i stedet for utdaterte initialiseringsskript init.d. En ny brannmur brukes også, brannmur i stedet for iptables. La oss sjekke funksjonen og åpne portene vi trenger (9080 og 9443):

Systemctl status brannmur brannmur-cmd --permanent --zone=public --add-port=9080/tcp brannmur-cmd --permanent --zone=public --add-port=9443/tcp systemctl start brannmur på nytt

Faktisk er det her OS-konfigurasjonen slutter og vi fortsetter direkte til installasjonen IBM WebSphere Application Server Liberty Profile 8.5.5

2) Installer WebSphere

Vi trenger en konto IBM. Etter vanlig registrering kan du laste ned hvilken som helst programvare (for utviklingsformål kalles det også prøveversjon).

De lar deg ikke laste ned programvaren direkte. Vi laster ned universell Installasjonsbehandling, og gjennom den kan vi laste ned programvaren vi trenger. Arkivinnhold BASETRIAL.agent.installer.linux.gtk.x86_64.zip pakk den ut i was-mappen og last den deretter opp til serveren i /root

Vi gir tillatelser og starter installasjonen:

Chmod -R 775 /root/was cd var ./installc -c

Første ting, Installasjonsbehandling vil be oss om å angi påloggingsinformasjon og passord for IBM-kontoen. Trykk p og skriv inn legitimasjonen din:

Vi velger bare følgende elementer for installasjon (installasjonsbehandling, websphere liberty og java sdk for det):

Men vi vil ikke installere rettelser. De er ikke nødvendige for installasjon, i tillegg er de buggy og installeres med en feil:

Endelig melding. Hva er installert og hvor:

Etter det venter vi. Hvor mye å vente? Avhenger av Internett-hastighet og serverbelastning IBM. Du må laste ned ca. 500 MB, eller enda mer. Vær tålmodig... Hva skjer? Installasjonsprogrammet kobler til depotene og laster ned den bestilte programvaren fra den. Alt er vakkert.

Meldingen om vellykket installasjon ser slik ut:

Teoretisk sett er det også mulig å installere alt dette gjennom responsfiler, uten dialoger. Men dette alternativet krever også allerede installert Installasjonsbehandling, så i vårt tilfelle er ikke dette relevant..

Så det er det! vi installerte IBM WebSphere Application Server Liberty Profile 8.5.5 og nødvendig for driften Java! Gratulerer! Vi skal nå se på hva vi kan gjøre videre.

3) WebSphere-oppsett

a) Starte WebSphere

La oss lage vår testserver:

/opt/IBM/WebSphere/Liberty/bin/server opprette PROSJEKT

Opprettet. Mappen vises: /opt/IBM/WebSphere/Liberty/usr/servers/ PROSJEKT Alle innstillinger og fremtidige moduler vil være plassert i den. For å starte dette fellesforetaket må du legge til line host=’1.1.4.185′ (med vår IP), over httpPort=’9080′ (dette er her: /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ server.xml ). Et eksempel på en slik konfigurasjon:

La oss lansere:

/opt/IBM/WebSphere/Liberty/bin/server start PROSJEKT

Går vi til adressen http://1.1.4.185:9080, vil vi se følgende:

Dette betyr at alt er bra og websfæren har startet.

b) Installasjon av administrasjonsmodulen

Denne varen er valgfri. Men med administrasjonsmodulen er det mer praktisk å jobbe med nettsfæren. Gjennom den kan du stoppe og starte moduler individuelt, uten å måtte stoppe hele serveren.

Så installer denne modulen:

/opt/IBM/WebSphere/Liberty/bin/featureManager installer adminCenter-1.0 --when-file-exists=ignore

For å logge inn på admin-området som admin, bruk kontoen: admin/passord. Og under brukeren: nonadmin/nonadminpwd.

Påloggingsadressen er: http://1.1.4.185:9080/adminCenter/ Administrasjonspanelet ser slik ut:



Alle! Administrasjonsmodulen er installert.

c) Installere en utvidelsesmodul

Du må også installere på Websphere forlenget pakker (et utvidet sett med biblioteker og binærfiler), dette gjøres ekstremt enkelt:

/opt/IBM/WebSphere/Liberty/bin/featureManager install extendedPackage-1.0

d) Installasjon av moduler

Vi kommer til den mest interessante delen. Installerer moduler i Liberty. Hvordan gjøre dette? Det er 2 måter, gjennom /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/-mappen dropins og /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ apper
Fra katalogen dropins moduler hentes og installeres automatisk. Fra katalogen apper– de må registreres manuelt i server.xml-konfigurasjonen. Et eksempel på en konfigurasjon som modulen er koblet til via apper:

For å kjøre SP-en ikke i bakgrunnen og med logger, kjør kommandoen:

/opt/IBM/WebSphere/Liberty/bin/server kjøre PROSJEKT

e) Fordeler

Testing har bekreftet at det er nok å kopiere /opt/IBM-mappen til en annen server og alt vil fungere ut av esken. Veldig komfortabelt. De. vi kan sette opp joint venture-selskapet vi trenger på forhånd og levere hele programvarepakken på en gang. Og "Liberty Websphere" er veldig lett og starter/stopper veldig raskt :)

Publisert