IBM Storwize V7000 Unified - შენახვის სისტემების აღწერა, კავშირი და კონფიგურაცია. IBM Storwize V7000 Unified - შენახვის სისტემების აღწერა, კავშირი და კონფიგურაცია მონაცემთა საწყობის ორგანიზება

დღევანდელი პოსტი ყურადღებას გაამახვილებს IBM Storwize V7000 Unified-ზე.

მოდით შევხედოთ კავშირის და ინიციალიზაციის საკითხებს და ასევე ჩავატაროთ შესრულების მცირე ტესტი.

პირველი, რამდენიმე ფონური ინფორმაცია:

IBM Storwize V7000 Unifiedარის მონაცემთა შენახვის ერთიანი სისტემა, რომელსაც შეუძლია ერთდროულად უზრუნველყოს ბლოკისა და ფაილების წვდომა (SAN და NAS). ფაილზე წვდომა NFS/CIFS/FTP/HTTPS/SCP ფაილური პროტოკოლებით. ასევე ადგილობრივი და დისტანციური ფაილის რეპლიკაცია. გარდა ამისა, ორიგინალური Storwize V7000-ის თანდაყოლილი ყველა სარგებლობა და სიკეთე, და ესენია: Thin Provisioning (დისკზე სივრცის ვირტუალური გამოყოფა), FlashCopy (სნეპშოტების და ტომების კლონების შექმნა), Easy Tier (მრავალდონიანი შენახვა), მონაცემთა მიგრაცია. (მონაცემთა მიგრაცია), რეალურ დროში შესრულება, მეტრო და/ან გლობალური სარკე (დისტანციური რეპლიკაცია), გარე ვირტუალიზაცია (გარე შენახვის სისტემების ვირტუალიზაცია), რეალურ დროში შეკუმშვა (მონაცემების შეკუმშვა).

სისტემა შედგება თავად V7000 და ორი ფაილის მოდულისგან (ერთგვარი სისტემა x სერვერი მასზე დამონტაჟებული სპეციალიზებული პროგრამული უზრუნველყოფით) გაერთიანებული კლასტერში ერთი გრაფიკული ინტერფეისის კონტროლის ქვეშ, როგორც ამბობენ IBM-ში - ერთი სისტემა, ერთი კონტროლი, ერთი ერთიანი გადაწყვეტა.

სისტემის ინსტალაცია და ინიციალიზაცია საკმაოდ მარტივია, მთავარია დარწმუნდეთ, რომ გადართვა არის სწორი და გქონდეთ მკაფიო გაგება პროცედურის შესახებ, ასევე არ დააზარალებს IBM Storwize V7000 ერთიანი საინფორმაციო ცენტრის მონახულება (http:/ /pic.dhe.ibm.com/infocenter/storwize/unified_ic /index.jsp?topic=%2Fcom.ibm.storwize.v7000.unified.132.doc%2Fmanpages%2Fdetachnw.html)

IBM Storwize V7000 სისტემის გადართვის მაგალითი

ინიციალიზაციისთვის, შეასრულეთ შემდეგი პროცედურა:


დააწკაპუნეთ “Launch GUI” და ბრაუზერი გაიხსნება მენეჯმენტის IP პუნქტში მითითებული ip-ის მიხედვით, სადაც ვნახავთ სისტემის ინიციალიზაციის პროცესს. დასრულების შემდეგ, ყველა საჭირო პარამეტრის მითითებით, გველოდება უკვე ნაცნობი, მაგრამ ახალი ელემენტებით სავსე GUI.

თუ რამე არასწორედ წარიმართა და ინიციალიზაციის დროს წარმოიშვა პრობლემა, ყურადღება უნდა მიაქციოთ ფაილს "satask_result.html", რომელიც მდებარეობს უტილიტასთან ერთად ფლეშ დისკზე; როგორც წესი, ის შეიცავს შეცდომის რაოდენობას, რომლის გამოც მოხდა მარცხი. ხელახალი ინიციალიზაცია ნაკლებად სავარაუდოა, რომ წარმატებული იყოს, თუ სისტემის ელემენტებიდან ერთი მაინც უკვე კონფიგურირებულია, ამიტომ ყველა პარამეტრი უნდა გადატვირთოს. გადატვირთვა ხორციელდება შემდეგნაირად: თავად შენახვის სისტემაზე, თქვენ უნდა გადახვიდეთ კონტროლერების სერვისის გრაფიკულ ინტერფეისზე (IP მისამართი შეიძლება შეიცვალოს იგივე InitTool პროგრამის გამოყენებით, ნაგულისხმევი მისამართია 192.168.70.121/122), გადართვა. node1 და node2 სერვისის რეჟიმში ("Enter" Service State"), შემდეგ ჩანართზე "Manage System" წაშალეთ არჩეული კვანძის სისტემის ინფორმაცია, შემდეგ გადადით "Configure Enclosure" ჩანართზე და გადააყენეთ სისტემის ID (შეამოწმეთ " გადააყენეთ სისტემის ID" ველი და დააწკაპუნეთ "შეცვლა"), მოქმედებების ეს თანმიმდევრობა უნდა განხორციელდეს ორივე კონტროლერისთვის (თავის მხრივ აირჩიეთ node1 და node2 ჩანართზე "Home"), რის შემდეგაც თქვენ უნდა გადატვირთოთ შენახვის სისტემა. ფაილის მოდულებზე კონფიგურაციის წასაშლელად, თქვენ უნდა დააინსტალიროთ სისტემა ჩართული დისკიდან, ჩატვირთულ მოდულებზე ბრძანებების შესრულების შემდეგ, მომხმარებლის სახელი/პაროლი (root/Passw0rd), შემდეგ ( $ rm -rf /persist/*და შეამოწმეთ, რომ ფაილი წაშლილია ( $ ls -ahl /persist/*), ჩადეთ დისკი და გადატვირთეთ ( $ გადატვირთვა), ინსტალაცია ავტომატურად დაიწყება დადასტურების შემდეგ (დააჭირეთ "Enter").

არსებობს სისტემის მუშაობის რამდენიმე გრაფიკი ბლოკზე წვდომით.

მასპინძელმა, OS Windows Server 2012, გამოსცადა ორი ადგილობრივი დისკი, წარმოდგენილი FC-ის საშუალებით, ერთი 100 გბ RAID10 4 SSD 200 გბ და მეორე 100 გბ 3 RAID5-ისგან შემდგარი აუზით, რომელიც შეიცავს 19 SAS დისკს (300 Gb 15k), შვიდი RAID ჯგუფის ჩათვლით. დისკები, ხოლო მესამე ჯგუფს ჰყავდა ხუთი. ტესტირება ჩატარდა IOmeter პროგრამით, გამოყენებული იყო ორი სპეციფიკაცია „100%Random-8k-70%Read“ - ტესტი 8kb ბლოკებში, 100% შემთხვევითი წვდომა, 70% წაკითხვის ოპერაციები, 30% ჩაწერა. და "Max Throughput-50%Read" - ტესტი 32kb ბლოკებში, 100% თანმიმდევრული წვდომა, 50% წაკითხვის და ჩაწერის ოპერაციები. რიგის სიღრმე ჰქონდა 64 მნიშვნელობა.

მინდა ვაჩვენო, რამდენად მარტივია IBM-დან მონაცემთა შენახვის სისტემის დაყენება. განსაკუთრებული მადლობა ორენბურგელ დიმიტრი კ-ს სკრინშოტების მოწოდებისთვის, რომელიც არ ეზარებოდა და აიღო ინსტალაციის პროცესი.

ყველაზე ძირითადი დიაგრამა:

  • IBM Storwize v3700 შენახვის სისტემა, როგორც სტანდარტული, სერვერების დაკავშირების შესაძლებლობით iSCSI და SAS-ის საშუალებით. დაინსტალირებულია 4 დისკი 600 გბ
  • ორი IBM 3650 m4 სერვერი ლოკალური დისკების გარეშე, ორი ერთპორტიანი SAS HBA ბარათით
  • ჯვარედინი კავშირი, შეცდომის ტოლერანტული - თითოეული სერვერის HBA ადაპტერი დაკავშირებულია საკუთარი შენახვის კონტროლერთან

დავალება ასეთია:

  1. დაუკავშირდით შენახვის სისტემას მართვისთვის
  2. განაახლეთ firmware SAS კავშირების მხარდასაჭერად
  3. შექმენით მასივი დისკებიდან, RAID დონე 10
  4. ვინაიდან ჩვენ გვაქვს სერვერები მყარი დისკების გარეშე, ჩვენ ვქმნით ცალკე LUN-ს თითოეული სერვერისთვის Windows server 2012 ოპერაციული სისტემის დასაყენებლად.
  5. ჩვენ ვქმნით ერთ საერთო LUN-ს, რომელიც ხელმისაწვდომი იქნება ორივე სერვერისთვის. ის გამოყენებული იქნება MS SQL 2012 კლასტერის შესაქმნელად, უფრო ზუსტად მონაცემთა ბაზების შესანახად
  6. ამოცანა არ გულისხმობს ვირტუალიზაციის გამოყენებას

დავიწყოთ დაყენება

1

შენახვის სისტემას მოყვება სპეციალური ფლეშ დრაივი; იგი გამოიყენება საწყისი კონფიგურაციისთვის, კერძოდ, ადმინისტრატორის პაროლისა და სერვისის IP მისამართის დასაყენებლად ვებ ინტერფეისთან დასაკავშირებლად. კომპიუტერის ფლეშ დრაივიდან გაუშვით პროგრამა InitTool.bat

2

მას შემდეგ, რაც ჩვენ ახლახან ამოიღეთ შენახვის სისტემა ყუთიდან, აირჩიეთ "ახალი სისტემის შექმნა".

3

ჩვენ დავაყენეთ IP მისამართი, რომლითაც ჩვენ დავუკავშირდებით შენახვის სისტემას.

4

სისტემის ინიციალიზაციის პროცესი:

  1. ჩვენ უსაფრთხოდ ვხსნით მოწყობილობას კომპიუტერიდან და ვიღებთ ფლეშ დრაივს.
  2. ჩვენ ვუყურებთ შენახვის სისტემის ერთ-ერთ კონტროლერს. ჩვენ დაგვჭირდება ფლეშ დრაივის ჩასმა ქსელის მართვის ინტერფეისის ერთ-ერთ კონექტორში. მაგრამ მანამდე, თქვენ უნდა დარწმუნდეთ, რომ კონტროლერის ზედა მარჯვენა მხარეს სამი ინდიკატორი აგზავნის სწორ სემაფორულ სიგნალებს, მარცხენა ჩართულია, შუა ციმციმებს, მარჯვენა გამორთულია.
  3. მას შემდეგ, რაც ფლეშ დრაივი მოთავსებულია USB პორტში (ნებისმიერი). მარჯვენა ხატი (ძახილი) იწყებს ციმციმს. თქვენ უნდა დაელოდოთ სანამ ის შეწყვეტს გამოსვლას, რის შემდეგაც შეგიძლიათ ამოიღოთ ფლეშ დრაივი და დააბრუნოთ იგი კომპიუტერში, რათა დაასრულოთ ოსტატის ნაბიჯები.

5

ბრაუზერის საშუალებით (რეკომენდებულია IE8 ან Firefox 23+) გადავდივართ ვებ ინტერფეისზე.

სუპერმომხმარებლის შესვლის ნაგულისხმევი პაროლი არის passw0rd (გამოყოფილი ნულით)
ახლა დროა განაახლოთ firmware; ამისათვის გადადით მენიუში Settings -> General -> Upgrade Machine Code.

firmware წინასწარ გადმოწერილი იყო ოფიციალური ვებგვერდიდან ibm.com. ჩვენს შემთხვევაში, ეს არის ვერსია 7.1.0.3 (build 80.3.1308121000). იგი მოიცავს განახლების ტესტის პროგრამას, ჯერ ვტვირთავთ მას შენახვის სისტემაში, შემდეგ კი თავად firmware-ში.

6

შენახვის სისტემამ ავტომატურად აღმოაჩინა 4 დაინსტალირებული დისკი. სისტემამ სამი მათგანი მიაკუთვნა POOL-ს, ხოლო ერთი - ცხელ სათადარიგოს.

თუ მეტი დისკი იყო, შეიძლება გონივრული იყოს ასეთი ავტომატური პარამეტრის დატოვება. ჩვენს შემთხვევაში, უმჯობესია დისკების სხვაგვარად გადანაწილება.

7

ავტომატურად შექმნილი ფონდის წაშლა

8

ვიღებთ 4 უფასო დისკს, საიდანაც შევქმნით RAID 10-ს

9

დააჭირეთ Configure Storage, შემდეგ აირჩიეთ რომელი RAID გვინდა შევქმნათ და რამდენი დისკი იქნება გამოყენებული ამისთვის.

10

დააყენეთ სახელი ახლად შექმნილი აუზისთვის.

ისე, რომ ტერმინებში არ დაბნეულიყო. ჩვენ ვქმნით RAID-ს ან მასივს თავისუფალი დისკებიდან, შედეგად თავისუფალი ადგილი არის Pool. შემდეგ ჩვენ თავად დავჭრით აუზის სივრცეს ნაწილებად, ე.წ.

11

შექმნილია აუზი

12

შექმენით ახალი LUN აუზში

13

ის არ ჩანს ეკრანის სურათზე, მაგრამ ჩვენ ვაყენებთ LUN ზომას

14

ამრიგად, LUN შექმნის ოსტატის გამოყენებით, ჩვენ ვქმნით 3 მთვარეს.

როგორც დაგეგმილია, ორი 100 გბ თითოეული სერვერის ოპერაციული სისტემებისთვის. და ერთი საერთო ზომა 500 გბ MS SQL 2012 კლასტერის შესაქმნელად

15

ახლა თქვენ უნდა უთხრათ შენახვის სისტემას, რომელი სერვერები (ჰოსტი) არის დაკავშირებული მასთან. ძირითად კონფიგურაციაში არის მხოლოდ ორი კავშირის ვარიანტი - iSCSI და SAS.

ჩვენ გვაქვს ორი სერვერი, რომლებიც დაკავშირებულია Storwize v3700-თან SAS-ის საშუალებით

16

ამ ეტაპზე ჩვენ მივუთითებთ შენახვის სისტემას, რომ ჩვენი პირველი სერვერი დაკავშირებულია მას ორი SAS კაბელით, რომლებიც სერვერზე არის ჩართული ორ SAS HBA ბარათში იდენტიფიკატორებით (16 ციფრი).

ამრიგად, ჩვენ ვამატებთ ორივე სერვერს, თითოეულს ორი იდენტიფიკატორით.

17

ჩვენ წარმოვადგენთ LUN-ებს სერვერებზე. სხვა სიტყვებით რომ ვთქვათ, ჩვენ ვანიჭებთ წვდომის უფლებებს.

ეკრანის სურათში HOST_LUN_TOP განკუთვნილია მხოლოდ პირველი სერვერისთვის, რადგან მასზე დამონტაჟდება მისი ოპერაციული სისტემა. და მეორე სერვერი ვერ ხედავს ამ LUN-ს.
SQL_LUN-ისგან განსხვავებით, რომელიც ხელმისაწვდომი უნდა იყოს ორივე სერვერისთვის, რადგან მასზე განთავსდება MS SQL კლასტერული მონაცემთა ბაზები.

IBM-ისგან DS35xx სერიის შენახვის სისტემების კონფიგურაციისა და შემდგომი მართვისთვის გამოიყენება DS storage manager პროგრამა, რომლის უახლესი ვერსიის ჩამოტვირთვა შესაძლებელია ოფიციალური ვებგვერდიდან, რა თქმა უნდა, რეგისტრაციის შემდეგ. არსებობს პროგრამის ვერსიები სხვადასხვა ოპერაციული სისტემებისთვის, Linux, Windows, Mac, HPUX

აქ, კარგი იდეაა ჩამოტვირთოთ უახლესი firmware განახლებები შენახვის სისტემის კონტროლერებისთვის. წინააღმდეგ შემთხვევაში, შენახვის სისტემამ შეიძლება ვერ დაინახოს დისკები ან HBA ადაპტერები სერვერებზე, ან შეიძლება წარმოიშვას სხვა დაკავშირებული პრობლემები.

არ ვიცი რატომ, მაგრამ ბევრს აქვს პრობლემა IBM-ის ვებსაიტზე გადმოსაწერი ფაილების პოვნასა და ჩამოტვირთვაში. გადადით Ibm.com -> მხარდაჭერა და ჩამოტვირთვები -> შესწორებები, განახლებები და დრაივერები -> სწრაფი პოვნა-> საძიებო ზოლში "DS3500 (DS3512, DS3524)" -> ნახეთ DS3500 (DS3512, DS3524) ჩამოტვირთვები. IBM პორტალი ყოველთვის არ მუშაობს სწორად, ასე რომ, თუ ის არ მუშაობს, სცადეთ სხვა ბრაუზერი.

კონტროლერის firmware ასე გამოიყურება

ფაილები DS შენახვის მენეჯერის ჩამოტვირთვისთვის, ა.შ



პროგრამის ინსტალაციისა და გაშვების შემდეგ მოგეთხოვებათ აირჩიოთ შენახვის სისტემის პოვნის მეთოდი. ავტომატური სკანირებას უკეთებს ქსელს და ეძებს დაკავშირებულ DS35xx-ს; სახელმძღვანელოში ხელით უნდა შეიყვანოთ ჩვენი შენახვის სისტემის ორივე კონტროლერის IP მისამართი. მოხერხებულობისთვის, ნაგულისხმევი მართვის ინტერფეისის მისამართები იწერება თავად შენახვის სისტემაზე, პორტების ქვეშ. თუ DHCP მუშაობს ქსელში, მაშინ მისამართები მიიღება ავტომატურად.



ჩვენ ვხედავთ, რომ შეცდომების ტოლერანტობისთვის, თითოეულ კონტროლერში ჩაშენებულია ორი მართვის პორტი, მაგრამ, როგორც წესი, თითოეული კონტროლერის პირველი პორტები გამოიყენება მართვისთვის.


კავშირის დიაგრამა

სანამ დაყენებას დაიწყებთ, უნდა წარმოიდგინოთ, რისი მიღება გსურთ საბოლოოდ; თუ გაგება არ არის, მაშინ არ უნდა დაიწყოთ. მოდით გავაკეთოთ უმარტივესი სქემა, დავაკავშიროთ ორი სერვერი შენახვის სისტემას სქემის მიხედვით.


თითოეულ სერვერს აქვს ორი SAS HBA ადაპტერი, მათთვის, ვინც არ იცის, ეს მხოლოდ PCI-E ბარათია SAS შეყვანით. შეცდომის ტოლერანტობისთვის დამონტაჟებულია ორი HBA; თუ შენახვის სისტემაში ერთ-ერთი კონტროლერი ვერ მოხერხდა, მუშაობა გაგრძელდება მეორეზე. ამავე ლოგიკით, სისტემა დაცულია სერვერზე SAS კაბელის ან HBA ადაპტერის პრობლემებისგან.

Აწყობა. ლოგიკა.

ჩვენ გვაქვს შენახვის სისტემა დისკებით. ჯერ დისკებიდან უნდა შევიკრიბოთ რაიმე სახის RAID (მასივი), შემდეგ შევქმნათ ლოგიკური ტომი (LUN) ამ RAID-ზე, შემდეგ წარვუდგინოთ ეს ტომი სერვერებს (მაპინგი), რათა მათ დაინახონ და შეძლონ მასთან მუშაობა. . ეს არის ლოგიკა.

ახლა, იმისათვის. მე შევასრულებ ყველა მანიპულაციას სიმულატორში, რომლის ჩამოტვირთვა შესაძლებელია IBM შენახვის ოფიციალურ ვებსაიტზე. ინტერფეისი არ არის ზუსტად იგივე, რაც თქვენ ნახავთ რეალურ DS3524 ან DS3512
1.. ჩვენ ადრე შევარჩიეთ შენახვის სისტემის ძებნის ავტომატური მეთოდი, სისტემამ იპოვა და დააკავშირა იგი, შენახვის სისტემა ნაჩვენებია კონსოლში.

2.. დააწკაპუნეთ მაუსის მარჯვენა ღილაკით შენახვის სისტემაზე და აირჩიეთ Manage კონფიგურაციის დასაწყებად.

3.. ოსტატი იხსნება ახალ ფანჯარაში, მაგრამ... მე მინდა ვაჩვენო მოქმედებების უნივერსალური თანმიმდევრობა, დავხურო იგი.

4.. Logical/Physical View ჩანართში ჩვენ ვხედავთ გამოუყოფელ ადგილს დისკზე. სიმულირებული შენახვის სისტემაში არის ორი ტიპის დისკი; ჩვენ დავაკონფიგურირებთ ჩვეულებრივ SATA-ს. ჯერ ვქმნით მასივს (RAID)



6.. დააყენეთ NAME ჩვენს მასივში


7.. ჩვენ ვირჩევთ რომელი RAID გვინდა მივიღოთ. ჩვენ ვერ ვხედავთ RAID 10-ს, მის შესაქმნელად თქვენ უნდა აირჩიოთ RAID 1
8.. და შემდეგ ოსტატი განმარტავს, რომ თუ თქვენ შექმნით RAID 1-ს ოთხი ან მეტი დისკიდან, მაშინ ავტომატურად შეიქმნება 10 RAID (ან 1+0, იგივე)
9.. აირჩიეთ 38 დისკის RAID-ის შექმნა

10.. შექმნის შემდეგ, მოცულობის შექმნის ოსტატი (LUN) ავტომატურად იწყება, მისი გაშვება ასევე შესაძლებელია კონსოლიდან, როგორც მე-4 საფეხურზე, მხოლოდ თქვენ უნდა აირჩიოთ ადრე შექმნილი მასივი.

11.. თქვენ უნდა მიუთითოთ LUN-ის ზომა, ჩემს შემთხვევაში 8 ტბ (სულ უფასო 17,6 ტბ) და დაასახელოთ მოცულობის სახელი
12.. მნიშვნელოვანი პუნქტი: თუ ვიცით, რომელი OS დაინსტალირდება ამ LUN-ზე, მაშინ ის უნდა დავაზუსტოთ. VMware-სთვის ასევე არის ხაზი, XenServer-ისთვის შერჩეულია Linux. მაგრამ რატომღაც არ მაქვს ეს ხაზები სიმულატორში
13.. Array-ისა და LUN-ის შექმნის შემდეგ, ჩვენ ვხედავთ მათ კონსოლში
14.. ახლა თქვენ უნდა გადახვიდეთ სხვა ჩანართზე და მისცეთ წვდომა ამ LUN სერვერზე. ჩვენ ვხედავთ, რომ ნაგულისხმევი ჯგუფი შეიქმნა ნაგულისხმევად და LUN1 ხელმისაწვდომია ამ ჯგუფისთვის. ჩვენ უბრალოდ უნდა დავამატოთ ჩვენი სერვერი (ჯერ ერთი, შემდეგ მეორე) ამ ჯგუფში, რათა მათ შეძლონ დაკავშირება LUN1-თან.

15.. დააწკაპუნეთ მაუსის მარჯვენა ღილაკით ნაგულისხმევ ჯგუფზე, Define -> Host

16.. თითოეულ ჩვენს სერვერს აქვს ორი SAS HBA და სწორედ მათი მეშვეობით ხდება კავშირი შენახვის სისტემასთან. შენახვის სისტემას შეუძლია სერვერის იდენტიფიცირება ზუსტად HBA ადაპტერებით, უფრო ზუსტად, მათი უნიკალური „იდენტიფიკატორით“.

დააყენეთ ჰოსტის სახელი (მე მაქვს ESX1). ჩვენ ვირჩევთ ორ „იდენტიფიკატორს“, რომელიც ეკუთვნის სერვერს, რომელსაც ვუკავშირდებით. თქვენ შეგიძლიათ ნახოთ რა იდენტიფიკატორები აქვს სერვერს ESXi ჰოსტთან დაკავშირებით პირდაპირ vSphere Client-ის ან vCenter სერვერის მეშვეობით. იქ, გადახედეთ "შენახვის ადაპტერების" განყოფილებას.

გადაიტანეთ ორი „იდენტიფიკატორი“ მარცხენა სვეტიდან მარჯვნივ. შემდეგ აირჩიეთ თითოეული „იდენტიფიკატორი“ და დააწკაპუნეთ ღილაკზე „რედაქტირება“ მასში აღწერილობის დასამატებლად. ეს პროცედურა გამოიგონეს იმისთვის, რომ არ აგვერიოს იდენტიფიკატორების დიდ რაოდენობაში.

ჩემს სიმულატორში უნიკალური "იდენტიფიკატორების" ნაცვლად არის რამდენიმე ნული, არ მიაქციოთ ყურადღება, ყველაფერი ისე იქნება, როგორც უნდა იყოს.

17.. ახლა აირჩიეთ მასპინძელი ოპერაციული სისტემა, თუ VMware, აირჩიეთ VMware

18.. ამის შემდეგ თქვენ იხილავთ თქვენს ჰოსტს კონსოლში და იმის გამო, რომ ის ნაგულისხმევ ჯგუფშია, მისთვის ხელმისაწვდომი იქნება LUN1.

დასკვნა.გრძელი სტატია აღმოჩნდა, პრაქტიკაში ყველაფერი ბევრად უფრო სწრაფად ხდება, თქვენ უბრალოდ უნდა დააჭიროთ ყველა საფეხურს რამდენჯერმე და IBM-დან შენახვის სისტემების დაკავშირების პროცესი აღარ გამოიწვევს პრობლემებს.

iSCSI კავშირის დაყენება ცოტა უფრო რთულია. გირჩევთ აირჩიოთ ან SAS ან FC.

კლასტერები საშუალებას გაძლევთ გააფართოვოთ თქვენი კონფიგურაცია IBM® WebSphere პორტალი. კლასტერები ასევე უზრუნველყოფენ J2EE აპლიკაციების მაღალ ხელმისაწვდომობას, რადგან წარუმატებლობის შემთხვევაში მოთხოვნები ავტომატურად გადაეგზავნება ჯანსაღ სერვერებს. კლასტერის კონფიგურაცია შესაძლებელია სხვადასხვა გზით: ჰორიზონტალური, ვერტიკალური, მრავალჯერადი და დინამიური.

შემდეგი ილუსტრაცია გვიჩვენებს ჰორიზონტალურ კასეტურ კონფიგურაციას, რომელშიც WebSphere პორტალიდაინსტალირებულია მრავალ სერვერზე ან მრავალ პროფილში ერთ ფიზიკურ სერვერზე. მრავალ სერვერის კონფიგურაცია ამცირებს ინდივიდუალური წარუმატებლობის რაოდენობას, მაგრამ მოითხოვს დამატებით პროგრამულ უზრუნველყოფას, როგორიცაა სერვერები. მრავალპროფილიანი კონფიგურაცია ასევე ამცირებს ინდივიდუალური წარუმატებლობის რაოდენობას. ის მოითხოვს ნაკლებ დამატებით აპარატურას, ვიდრე მრავალ სერვერის კონფიგურაციას, მაგრამ დამატებითი აპარატურა, როგორიცაა დამატებითი მეხსიერება, შეიძლება მაინც იყოს საჭირო. განლაგების ადმინისტრატორი მართავს უჯრედს ჰორიზონტალური კასეტური კვანძებისთვის.

ტექნიკის უცვლელად დასატოვებლად, თქვენ ასევე შეგიძლიათ დააკონფიგურიროთ ვირტუალური კლასტერის ელემენტები ერთ კვანძზე. როგორც წესი, დიდი პორტალის კლასტერები უზრუნველყოფენ როგორც ჰორიზონტალურ, ასევე ვერტიკალურ სკალირებას. მაგალითი: შეიძლება იყოს ოთხი პორტალური კვანძი, თითოეული შეიცავს ხუთ კლასტერის წევრს, სულ ოცი კლასტერის წევრისთვის.

მომხმარებელთა გამოხმაურების საპასუხოდ, მოცემულია ინსტრუქციები WebSphere Portal-ის კონფიგურაციისთვის თითოეული ოპერაციული სისტემისთვის. პროცესის დასაწყებად აირჩიეთ თქვენი ოპერაციული სისტემა.

  1. IBM i ოპერაციული სისტემის მომზადება კლასტერულ გარემოში
    იხილეთ ინფორმაცია თქვენი ოპერაციული სისტემის დაყენების შესახებ სამუშაოდ IBM WebSphere პორტალი. თუ თქვენ დააინსტალირებთ სხვა კომპონენტებს, შეიძლება დაგჭირდეთ დამატებითი ნაბიჯები; გთხოვთ, გადახედოთ ამ კომპონენტების დოკუმენტაციას.
  2. მოამზადეთ პირველადი კვანძი IBM i
    კლასტერული გარემოს შექმნამდე უნდა დააინსტალიროთ IBM WebSphere პორტალიპირველად კვანძზე და შემდეგ დააკონფიგურიროთ მონაცემთა ბაზა და ქსელის განლაგების მენეჯერი.
  3. შექმენით და დაამატეთ ახალი Deployment Manager პროფილი IBM i
    წარმოების გარემოში, Deployment Manager უნდა იყოს დაინსტალირებული დისტანციურ სერვერზე და არა იმავე სერვერზე IBM WebSphere პორტალი. დისტანციური Deployment Manager პროფილის შესაქმნელად გამოიყენეთ Profile Management Tool ან managerprofiles ბრძანება. სატესტო ან განვითარების გარემოში, Deployment Manager შეიძლება დაინსტალირდეს თქვენს ადგილობრივ სისტემაში IBM Installation Manager-ის გამოყენებით. თუ თქვენ დააინსტალირებთ დისტანციური Deployment Manager პროფილს, მიჰყევით ნაბიჯებს Deployment Manager პროფილის შესაქმნელად და დასამატებლად. გამოტოვეთ ეს ნაბიჯები, თუ თქვენ დააინსტალირეთ ადგილობრივი განლაგების მენეჯერის პროფილი ინსტალაციის მენეჯერის გამოყენებით მთავარ კვანძზე.
  4. IBM-ზე კლასტერის შექმნა ი
    ინსტალაციის შემდეგ IBM WebSphere პორტალიპირველადი კვანძის, დისტანციური მონაცემთა ბაზის კონფიგურაციისა და პირველადი კვანძის მომზადება Deployment Manager-თან კომუნიკაციისთვის, შეგიძლიათ შექმნათ სტატიკური კლასტერი გადართვის მოთხოვნების დასამუშავებლად.
  5. ვებ სერვერის მომზადება, როდესაც პორტალი დაინსტალირებულია IBM i-ზე კლასტერულ გარემოში
    დააინსტალირეთ და დააკონფიგურირეთ ვებ სერვერის მოდული, რომელიც მოწოდებულია IBM WebSphere აპლიკაციის სერვერი, ვებ სერვერის კონფიგურაციისთვის ინტერაქციისთვის IBM WebSphere პორტალი.
  6. IBM i Cluster: მომხმარებელთა რეესტრის მომზადება
    დააინსტალირეთ და დააკონფიგურირეთ LDAP სერვერი, როგორც მომხმარებლის რეესტრი, მომხმარებლის ინფორმაციის შესანახად და მომხმარებლების იდენტიფიცირებისთვის კლასტერულ წარმოების გარემოში.

  7. დააყენეთ მომხმარებლის რეესტრის დაცვა IBM WebSphere პორტალისერვერის დასაცავად არაავტორიზებული წვდომისგან. თქვენ შეგიძლიათ დააკონფიგურიროთ დამოუკიდებელი LDAP მომხმარებელთა რეესტრი ან დაამატოთ LDAP ან მონაცემთა ბაზის მომხმარებლის რეესტრები ნაგულისხმევ ფედერაციულ მაღაზიაში. მომხმარებლის რეესტრის კონფიგურაციის შემდეგ, შეგიძლიათ დაამატოთ სკოპი ვირტუალური პორტალებისთვის ან მეორადი მონაცემთა ბაზის შესანახად ატრიბუტების შესანახად, რომელთა შენახვა შეუძლებელია LDAP მომხმარებლის რეესტრში.
  8. დამატებითი კლასტერის წევრების უზრუნველყოფა IBM-ზე i
    ძირითადი კვანძის ინსტალაციისა და კონფიგურაციის შემდეგ, შეგიძლიათ შექმნათ დამატებითი კვანძები. შეგიძლიათ დააინსტალიროთ IBM WebSphere პორტალითითოეულ კვანძზე და შემდეგ დააკონფიგურირეთ კვანძი მონაცემთა ბაზაში და მომხმარებლის რეესტრში წვდომისთვის კლასტერში დამატებამდე.
  9. IBM i კლასტერი: სერვერების დახვეწა
    თქვენი სერვერების დაზუსტება მნიშვნელოვან როლს თამაშობს იმის უზრუნველსაყოფად, რომ თქვენი WebSphere Portal გარემო მუშაობს ისე, როგორც მოსალოდნელია. WebSphere Portal თავდაპირველად არ არის მორგებული წარმოებისთვის, ამიტომ ოპტიმალური მუშაობისთვის, გადახედეთ და მიჰყევით პროცედურებს IBM WebSphere Portal Tuning Guide-ში. თუ დაზუსტების სახელმძღვანელო არ არის ხელმისაწვდომი WebSphere Portal-ის მიმდინარე გამოშვებისთვის, გამოიყენეთ სახელმძღვანელო წინა გამოშვებისთვის.
  10. ძიების დაყენება IBM i კლასტერში
    IBM WebSphere პორტალიგთავაზობთ ძებნის ორ განსხვავებულ ვარიანტს. თქვენ შეგიძლიათ გამოიყენოთ ორივე ძებნის შესაძლებლობა კლასტერულ გარემოში.
  11. IBM-ზე მრავალი კლასტერის დაყენება i
    უჯრედების დამატებითი კლასტერები იქმნება ისევე, როგორც პირველი, რამდენიმე გამონაკლისის გარდა. ფაქტობრივად, ახალი პროფილი გამიზნული იქნება მთავარ პროფილად გამოსაყენებლად, კლასტერული ტერმინოლოგიის მიხედვით IBM WebSphere პორტალი, და გამოყენებული იქნება როგორც კლასტერის ახალი განმარტების საფუძველი. ეს იმეორებს უჯრედში პირველი კლასტერის შექმნის პროცესს. განაწილების პროცესში, თუ უჯრედში არის რაიმე აპლიკაცია ამ ახალ კვანძზე (რადგან ისინი გამოიყენება პირველი კლასტერის მიერ), განლაგების მენეჯერი არ დაუშვებს მათ დამატებას. განაწილების შემდეგ, აპლიკაციები, რომლებიც უკვე არსებობს უჯრედში, არ ექვემდებარება WebSphere_Portal სერვერს ახლად დამატებულ კვანძზე; ამიტომ, არსებული აპლიკაციები ხელახლა უნდა იყოს მიბმული ახალ განაწილებულ სერვერთან აპლიკაციების სიის აღსადგენად. ამრიგად, ახალი პროფილის კონფიგურაციიდან გამომდინარე, ზოგიერთი აპლიკაცია გაზიარებული იქნება სხვა არსებულ კლასტერებს შორის, ზოგი კი უნიკალური იქნება ამ ახალი პროფილისთვის.
  12. მონაცემთა ბაზის დომენების გაზიარება კლასტერებს შორის IBM-ზე i
    თუ თქვენი საწარმოო გარემო შედგება რამდენიმე კლასტერისგან ერთ უჯრედში და რამდენიმე კლასტერისგან სხვადასხვა უჯრედში, შეგიძლიათ მიანიჭოთ წვდომა მონაცემთა ბაზის დომენებზე ყველა კლასტერს, რათა მხარი დაუჭიროს ჭარბი და გაუმართაობას. მონაცემები IBM WebSphere პორტალიინახება მონაცემთა მრავალ დომენში, ხელმისაწვდომობის განსხვავებული მოთხოვნებით, რაც დამოკიდებულია წარმოების გარემოს კონფიგურაციაზე. თუ არსებობს რამდენიმე საწარმოო ხაზი, რომელთაგან თითოეული დანერგილია როგორც სერვერის კლასტერი, მონაცემთა ბაზის საერთო დომენების გამოყენება უზრუნველყოფს მონაცემთა ავტომატურ სინქრონიზაციას საწარმოო ხაზებს შორის.

ამ სტატიაში განვიხილავთ ინსტალაციისა და კონფიგურაციის საკითხს CentOS 7. ამ სახელმძღვანელოში ნაჩვენები იქნება საცდელი ვერსიის ინსტალაცია. WebSphere, მაგრამ ის არაფრით განსხვავდება სრული ვერსიისგან, ამიტომ არ აქვს მნიშვნელობა.

მაშ, წავიდეთ!

1) OS-ის მომზადება და კონფიგურაცია

ჩვენს საქმიანობაში ჩვენ გამოვიყენებთ ახალს CentOS 7. გასაკვირია, რომ ყუთში მას ბევრი დასრულება სჭირდება სამუშაოდ, ასე რომ მოემზადეთ ამისათვის. ასე რომ, დააინსტალირეთ მინიმალური ვერსია გრაფიკის გარეშე და მოდით წავიდეთ. ინტერფეისის საშუალებით - სასწრაფოდ შექმენით ქსელი, რომ იყოს ინტერნეტი... ეს ბევრად გაგიადვილებთ ცხოვრებას :)

მოდით დავაყენოთ ძირითადი პროგრამული უზრუნველყოფა... რომელიც რატომღაც არ შედის პაკეტში:

თქვენ დააინსტალირეთ net-tools nano wget

ახლა შევამოწმოთ ჩვენი მასპინძლის სახელიდა ჩვენ გამოვასწორებთ მასპინძლებს(დაასწორეთ როგორც გსურთ):

ნანო /etc/hostname nano /etc/hosts

Ifconfig -a

ამის გამოსასწორებლად, ჯერ ცოტა უნდა გაასწოროთ გრუბი:

ნანო /etc/default/grub

ხაზის ბოლოს " GRUB_CMDLINE_LINUX"უნდა დაამატოთ" net.ifnames=0 biosdevname=0“. თქვენ მიიღებთ მსგავს რაღაცას (აუცილებლად 1 1-ში):

GRUB_CMDLINE_LINUX="rd.lvm.lv=rootvg/usrlv rd.lvm.lv=rootvg/swaplv crashkernel=auto vconsole.keymap=usrd.lvm.lv=rootvg/rootlv vconsole.fonthebh-latarquin net.ifnames=0 biosdevname=0"

ჩვენ ვუწოდებთ ჩვენს ქსელურ ინტერფეისს ნორმალურ, კლასიკურ " eth0”და ავაშენოთ:

Mv /etc/sysconfig/network-scripts/ifcfg-ens32 /etc/sysconfig/network-scripts/ifcfg-eth0 გადატვირთვა

ქსელის დაყენება:

ნანო /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" ONBOOT=დიახ BOOTPROTO=სტატიკური IPADDR=1.1.4.185 NETMASK=255.255.248.0 GATEWAY=1.1.1.9 DNS11.1=0.

გამორთეთ დამატებითი ქსელის მენეჯერიდა ავაშენოთ:

Systemctl შეაჩერე NetworkManager systemctl გამორთე NetworkManager გადატვირთვა

ჩვენ ვამოწმებთ არის თუ არა სისტემა დანიშნული ძაფად IPv6:

lsmod | grep -i ipv6

თუ შეტყობინებები შეიცავს მითითებებს IPv6, მაგრამ ეს იქნება, შემდეგ ჩვენ ვაგრძელებთ მის გამორთვას:

ნანო /etc/default/grub

ხაზის დასაწყისში " GRUB_CMDLINE_LINUX"უნდა დაამატოთ" ipv6.disable=1“. თქვენ მიიღებთ ასეთ რამეს:

GRUB_CMDLINE_LINUX="ipv6.disable=1 rd.lvm.lv=rootvg/usrlv...

შექმენით ახალი კონფიგურაცია და შეინახეთ შედეგი:

Grub2-mkconfig -o /boot/grub2/grub.cfg

გადატვირთვა:

მოდით კიდევ ერთხელ შევამოწმოთ და დავრწმუნდეთ, რომ ყველაფერი კარგადაა:

lsmod | grep -i ipv6

სისტემაში დამატება EPEL(ლიცენზიებით „დატვირთული“ ყველა სახის პაკეტი) საცავი ამისთვის CentOS 7:

Wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-2.noarch.rpm rpm -ivh epel-release-7-2.noarch.rpm yum repolist

ახალი OS იყენებს „მასტერ“ დემონს, რომელიც აკონტროლებს სხვა დემონებს. ეს სისტემური, რომელიც დაინერგა მოძველებული ინიციალიზაციის სკრიპტების ნაცვლად init.d. ასევე გამოიყენება ახალი firewall, ბუხარიიმის მაგივრად iptables. მოდით შევამოწმოთ მისი მოქმედება და გავხსნათ ჩვენთვის საჭირო პორტები (9080 და 9443):

Systemctl სტატუსი firewall firewall-cmd --მუდმივი --zone=public --add-port=9080/tcp firewall-cmd --permanent --zone=public --add-port=9443/tcp systemctl გადატვირთეთ firewall

ფაქტობრივად, აქ მთავრდება OS-ის კონფიგურაცია და ჩვენ პირდაპირ ვაგრძელებთ ინსტალაციას IBM WebSphere Application Server Liberty Profile 8.5.5

2) დააინსტალირეთ WebSphere

ჩვენ დაგვჭირდება ანგარიში IBM. რეგულარული რეგისტრაციის შემდეგ, შეგიძლიათ ჩამოტვირთოთ ნებისმიერი პროგრამული უზრუნველყოფა (განვითარების მიზნებისთვის, მას ასევე უწოდებენ საცდელი ვერსია).

ისინი არ გაძლევთ საშუალებას პირდაპირ ჩამოტვირთოთ პროგრამული უზრუნველყოფა. ჩვენ ჩამოვტვირთავთ უნივერსალურ ინსტალაციის მენეჯერი, და შემდეგ მისი მეშვეობით ჩვენ შეგვიძლია გადმოვწეროთ ჩვენთვის საჭირო პროგრამული უზრუნველყოფა. არქივის შინაარსი BASETRIAL.agent.installer.linux.gtk.x86_64.zipგახსენით ის was საქაღალდეში და შემდეგ ატვირთეთ სერვერზე /root-ში

ჩვენ ვაძლევთ ნებართვებს და ვიწყებთ ინსტალაციას:

Chmod -R 775 /root/was cd იყო ./installc -c

Პირველი რამ, ინსტალაციის მენეჯერიმოგვთხოვს შევიტანოთ ჩვენი შესვლა და პაროლი IBM ანგარიშისთვის. დააჭირეთ p და შეიყვანეთ თქვენი რწმუნებათა სიგელები:

ჩვენ ვირჩევთ მხოლოდ შემდეგ ელემენტებს ინსტალაციისთვის (ინსტალაციის მენეჯერი, websphere liberty და java sdk ამისთვის):

მაგრამ ჩვენ არ დავაყენებთ შესწორებებს. ისინი არ არის საჭირო ინსტალაციისთვის, გარდა ამისა, ისინი გაფუჭებულია და ინსტალაცია ხდება შეცდომით:

საბოლოო შეტყობინება. რა არის დაყენებული და სად:

ამის შემდეგ ველოდებით. რამდენი უნდა ველოდოთ? დამოკიდებულია თქვენი ინტერნეტის სიჩქარეზე და სერვერის დატვირთვაზე IBM. თქვენ დაგჭირდებათ დაახლოებით 500 მბ ან მეტის ჩამოტვირთვა. მოითმინე... რა ხდება? ინსტალერი აკავშირებს თავის საცავებს და მისგან ჩამოტვირთავს შეკვეთილ პროგრამულ უზრუნველყოფას. ყველაფერი ლამაზია.

წარმატებული ინსტალაციის შეტყობინება ასე გამოიყურება:

თეორიულად, ამ ყველაფრის დაყენება საპასუხო ფაილების საშუალებითაც, დიალოგების გარეშეა შესაძლებელი. მაგრამ ეს ვარიანტი ასევე მოითხოვს უკვე დაინსტალირებულს ინსტალაციის მენეჯერიასე რომ ჩვენს შემთხვევაში ეს არ არის აქტუალური..

ასე რომ, ეს არის ის! ჩვენ დავაყენეთ IBM WebSphere Application Server Liberty Profile 8.5.5და აუცილებელია მისი ფუნქციონირებისთვის ჯავა! გილოცავ! ახლა ჩვენ გადავხედავთ, რა შეგვიძლია გავაკეთოთ შემდეგ.

3) WebSphere-ის დაყენება

ა) WebSphere-ის დაწყება

მოდით შევქმნათ ჩვენი სატესტო სერვერი:

/opt/IBM/WebSphere/Liberty/bin/server შექმნა PROJECT

შექმნილია. გამოჩნდება საქაღალდე: /opt/IBM/WebSphere/Liberty/usr/servers/ პროექტიმასში განთავსდება ყველა პარამეტრი და მომავალი მოდული. ამ ერთობლივი საწარმოს დასაწყებად, თქვენ უნდა დაამატოთ ხაზის ჰოსტი='1.1.4.185' (ჩვენი IP-ით), ზემოთ httpPort='9080' (ეს არის აქ: /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ server.xml ). ასეთი კონფიგურაციის მაგალითი:

დავიწყოთ:

/opt/IBM/WebSphere/Liberty/bin/server start PROJECT

გადადით მისამართზე http://1.1.4.185:9080, ვნახავთ შემდეგს:

ეს ნიშნავს, რომ ყველაფერი კარგადაა და ვებსფერო დაიწყო.

ბ) ადმინისტრირების მოდულის დაყენება

ეს ელემენტი არჩევითია. მაგრამ ადმინისტრაციის მოდულით უფრო მოსახერხებელია ვებ სფეროსთან მუშაობა. მისი მეშვეობით შეგიძლიათ შეაჩეროთ და დაიწყოთ მოდულები ინდივიდუალურად, მთელი სერვერის შეჩერების გარეშე.

ასე რომ, დააინსტალირეთ ეს მოდული:

/opt/IBM/WebSphere/Liberty/bin/featureManager install adminCenter-1.0 --when-file-exists=იგნორირება

ადმინისტრატორის ზონაში შესასვლელად გამოიყენეთ ანგარიში: admin/password. და მომხმარებლის ქვეშ: nonadmin/nonadminpwd.

მისი შესვლის მისამართია: http://1.1.4.185:9080/adminCenter/ ადმინისტრატორის პანელი ასე გამოიყურება:



ყველა! დაინსტალირებულია ადმინისტრაციის მოდული.

გ) გაფართოების მოდულის დაყენება

ასევე, თქვენ უნდა დააინსტალიროთ Websphere-ზე გაფართოებულიპაკეტები (ბიბლიოთეკებისა და ბინარების გაფართოებული ნაკრები), ეს კეთდება ძალიან მარტივად:

/opt/IBM/WebSphere/Liberty/bin/featureManager installedPackage-1.0

დ) მოდულების მონტაჟი

მივედით ყველაზე საინტერესო ნაწილამდე. მოდულების დაყენება ლიბერთიში. როგორ გავაკეთოთ ეს? არსებობს 2 გზა, /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ საქაღალდეში წვეთებიდა /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/ აპლიკაციები
კატალოგიდან წვეთებიმოდულები იღებენ და დაინსტალირდებიან ავტომატურად. კატალოგიდან აპლიკაციები– ისინი ხელით უნდა იყოს რეგისტრირებული server.xml კონფიგურაციაში. კონფიგურაციის მაგალითი, რომელსაც მოდული უკავშირდება აპლიკაციების საშუალებით:

SP-ის არა ფონზე და ჟურნალებით გასაშვებად, გაუშვით ბრძანება:

/opt/IBM/WebSphere/Liberty/bin/server გაშვებული PROJECT

ე) დადებითი

ტესტირებამ დაადასტურა, რომ საკმარისია /opt/IBM საქაღალდის სხვა სერვერზე კოპირება და ყველაფერი გამოდგება. ძალიან კომფორტულად. იმათ. ჩვენ შეგვიძლია მოვაწყოთ ერთობლივი საწარმო, რომელიც გვჭირდება წინასწარ და მივაწოდოთ მთელი პროგრამული პაკეტი ერთდროულად. და "Liberty Websphere" არის ძალიან მსუბუქი და ძალიან სწრაფად იწყება/ჩერდება :)

გამოქვეყნდა