メインコンテンツまでスキップ

MetroCluster 構成での Solaris ホストのサポートに関する考慮事項

Views:
49
Visibility:
Public
Votes:
0
Category:
metrocluster
Specialty:
MetroCluster
Last Updated:

環境

  • MetroCluster 構成での Solaris ホストのサポートに関する考慮事項
  • MetroCluster
  • ONTAP 9

回答

デフォルトでは、 Solaris OS は、「 All Path Down 」( APD )を最大 20 秒維持できます。これは、 fcp_offline_delay パラメータで制御されます。  parameter.
ネゴシエートスイッチオーバー、スイッチバック、予期しないスイッチオーバーのタイブレーカ、計画外のスイッチオーバーの自動化など、すべての MetroCluster ワークフローで Solaris ホストを中断せずに継続するには、 fcp_offline_delay を 120 秒に設定することを推奨します。

MetroCluster のサポートに関する重要な考慮事項:

ローカル HA フェイルオーバーへのホスト応答

fcp_offline_delay の値を大きくすると、
ローカル HA フェイルオーバー中にアプリケーションサービスの再開時間が長くなります(ノードパニックが発生したあと、パニック状態にあるノードのテイクオーバーが正常に行われます)。たとえば、 fcp_offline_delay = 120 s のようになります。 Solaris クライアントでは、アプリケーションサービスを再開するのに最大 120 秒かかることがあります。

FCP エラー処理

デフォルト値の fcp_offline_delay を使用すると、イニシエータポートの接続に失敗した場合、 FCP ドライバは 110 秒を要して上位レイヤ( MPxIO )に通知します。fcp_offline_delay を 120 秒に増やすと、ドライバが上位レイヤ( MPxIO )に通知するためにかかる合計時間は 210 秒になります。これにより、 I/O 遅延が発生する可能性があります。Oracle 文書 ID : 1018952.1 を参照してください。ファイバチャネルポートに障害が発生すると、デバイスがオフラインになるまでに 110 秒の遅延が発生することがあります。

サードパーティ製アレイとの共存

fcp_offline_delay パラメータはグローバルパラメータであるため、 FCP ドライバに接続されているすべてのストレージとの相互作用に影響を与える可能性があります。

fcp_offline_delay の設定を変更する方法

Solaris 10u8 、 10u9
、 10u10 、 10u11 の場合: fcp_offline_delay は /kernel/drvfcp.conf ファイルで設定できます。次の行を追加すると、タイマーが 120 秒に変更されます。
fcp_offline_delay = 120 。
設定を有効にするには、ホストをリブートする必要があります。
ホストが起動したら、カーネルにパラメータが設定されているかどうかを確認します。
# mdb -k
> fcp_offline_delay/D
fcp_offline_delay:
fcp_offline_delay:      120
>Ctrl_D

Solaris 11
では、 /etc/driver/drv/fcp.conf ファイルに fcp_offline_delay を設定できます。次の行を追加すると、タイマーが 120 秒に変更されます。
fcp_offline_delay = 120 。
設定を有効にするには、ホストをリブートする必要があります。
ホストが起動したら、カーネルにパラメータが設定されているかどうかを確認します。
# mdb -k
> fcp_offline_delay/D
fcp_offline_delay:
fcp_offline_delay:      120
>Ctrl_D

ホストのリカバリの例:

災害によるフェイルオーバーまたは予期しないスイッチオーバーが発生し、ホスト原因アプリケーションが失敗する可能性がある異常な時間( 120 秒を超える)が発生した場合は、ホストアプリケーションを修復する前に、次の例を参照してください。

zpool Recovery :

すべての LUN がオンラインであることを確認します。

次のコマンドを実行します。

# zpool list
NAME             SIZE  ALLOC   FREE  CAP  HEALTH  ALTROOT
n_zpool_site_a  99.4G  1.31G  98.1G   1%  OFFLINE  -
n_zpool_site_b   124G  2.28G   122G   1%  OFFLINE  -
 
Check the individual pool status:
# zpool status n_zpool_site_b
  pool: n_zpool_site_b
 state: SUSPENDED ==============è>>>>>>>>>>>>>> POOL SUSPENDED
status: One or more devices are faulted in response to IO failures.
action: Make sure the affected devices are connected, then run 'zpool clear'.
see: http://www.sun.com/msg/ZFS-8000-HC
scan: none requested
config:
 
        NAME                                     STATE     READ WRITE CKSUM
        n_zpool_site_b                           UNAVAIL      1 1.64K     0  experienced I/O failures
          c0t600A098051764656362B45346144764Bd0  UNAVAIL      1     0     0  experienced I/O failures
          c0t600A098051764656362B453461447649d0  UNAVAIL      1    40     0  experienced I/O failures
          c0t600A098051764656362B453461447648d0  UNAVAIL      0    38     0  experienced I/O failures
          c0t600A098051764656362B453461447647d0  UNAVAIL      0    28     0  experienced I/O failures
          c0t600A098051764656362B453461447646d0  UNAVAIL      0    34     0  experienced I/O failures
          c0t600A09805176465657244536514A7647d0  UNAVAIL      0 1.03K     0  experienced I/O failures
          c0t600A098051764656362B453461447645d0  UNAVAIL      0    32     0  experienced I/O failures
          c0t600A098051764656362B45346144764Ad0  UNAVAIL      0    34     0  experienced I/O failures
          c0t600A09805176465657244536514A764Ad0  UNAVAIL      0 1.03K     0  experienced I/O failures
          c0t600A09805176465657244536514A764Bd0  UNAVAIL      0 1.04K     0  experienced I/O failures
          c0t600A098051764656362B45346145464Cd0  UNAVAIL      1     2     0  experienced I/O failures
 
The above pool has degraded.

次のコマンドを実行してプールステータスをクリアします。

#zpool clear n_zpool_site_b                    

プールを再度確認します。

# zpool status n_zpool_site_b
  pool: n_zpool_site_b
 state: ONLINE
status: One or more devices has experienced an error resulting in data
        corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
        entire pool from backup.
   see: http://www.sun.com/msg/ZFS-8000-8A
 scan: none requested
config:
 
        NAME                                     STATE     READ WRITE CKSUM
        n_zpool_site_b                           ONLINE       0     0     0
          c0t600A098051764656362B45346144764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B453461447649d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447648d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447647d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447646d0  ONLINE       0     0     0
          c0t600A09805176465657244536514A7647d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447645d0  ONLINE       0     0     0
          c0t600A098051764656362B45346144764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B45346145464Cd0  ONLINE       0     0     0
 
errors: 1679 data errors, use '-v' for a list
 

プールのステータスを再度確認します。プール内のディスクがデグレード状態になっています。

[22] 05:44:07 (root@host1) /
# zpool status n_zpool_site_b -v
cannot open '-v': name must begin with a letter
  pool: n_zpool_site_b
 state: DEGRADED
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-9P
 scan: scrub repaired 0 in 0h0m with 0 errors on Fri Dec  4 05:44:17 2015
config:
 
        NAME                                     STATE     READ WRITE CKSUM
        n_zpool_site_b                           DEGRADED     0     0     0
          c0t600A098051764656362B45346144764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B453461447649d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447648d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447647d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447646d0  ONLINE       0     0     0
          c0t600A09805176465657244536514A7647d0  DEGRADED     0     0     0  too many errors
          c0t600A098051764656362B453461447645d0  ONLINE      0     0     0
          c0t600A098051764656362B45346144764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B45346145464Cd0  ONLINE       0     0     0
 
errors: No known data errors

次のコマンドを実行して、ディスクエラーを解消します。

# zpool clear n_zpool_site_b c0t600A09805176465657244536514A7647d0
 
[24] 05:45:17 (root@host1) /
# zpool status n_zpool_site_b -v
cannot open '-v': name must begin with a letter
  pool: n_zpool_site_b
 state: ONLINE
 scan: scrub repaired 0 in 0h0m with 0 errors on Fri Dec  4 05:44:17 2015
config:
 
        NAME                                    STATE     READ WRITE CKSUM
        n_zpool_site_b                           ONLINE       0     0     0
          c0t600A098051764656362B45346144764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B453461447649d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447648d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447647d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447646d0  ONLINE       0     0     0
          c0t600A09805176465657244536514A7647d0  ONLINE       0     0     0
          c0t600A098051764656362B453461447645d0  ONLINE       0     0     0
          c0t600A098051764656362B45346144764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Ad0  ONLINE       0     0     0
          c0t600A09805176465657244536514A764Bd0  ONLINE       0     0     0
          c0t600A098051764656362B45346145464Cd0  ONLINE       0     0     0
 
errors: No known data errors
 
or export and import the zpool.
 
# zpool export n_zpool_site_b
# zpool import n_zpool_site_b

プールは現在オンラインです。
上記の手順でプールをリカバリできない場合は、ホストを再起動します。

Storage Virtual Machine ( SVM
)( Metaset )すべての LUN がオンラインであることを確認し、システムを再起動してから、 Storage Virtual Machine ( SVM )をマウントします。

追加情報

ここにテキストを追加します。

 

NetApp provides no representations or warranties regarding the accuracy or reliability or serviceability of any information or recommendations provided in this publication or with respect to any results that may be obtained by the use of the information or observance of any recommendations provided herein. The information in this document is distributed AS IS and the use of this information or the implementation of any recommendations or techniques herein is a customer's responsibility and depends on the customer's ability to evaluate and integrate them into the customer's operational environment. This document and the information contained herein may be used solely in connection with the NetApp products discussed in this document.