【PyTorch FX】GraphModuleの不要モジュール削除を極める:代替手法とプログラミング例
torch.fx
と GraphModule
について
まず、torch.fx
について簡単に説明します。torch.fx
は、PyTorch のモデル (torch.nn.Module
) を変換するためのツールキットです。モデルの計算グラフをキャプチャし、そのグラフを表現する中間表現(IR)を作成し、さらにそのIRからPythonコードを生成することができます。これにより、モデルの最適化(例:畳み込みとバッチ正規化の融合、量子化など)や解析(例:形状伝播、プロファイリング)が可能になります。
GraphModule
は、torch.fx
によって生成される特別な torch.nn.Module
のサブクラスです。これは、元のモデルの計算グラフを表現する Graph
オブジェクトと、そのグラフが参照する実際のモジュールやパラメータを保持しています。
GraphModule
は、元のモデルが持っていたすべてのサブモジュールを内部に保持している場合があります。しかし、torch.fx
によるグラフの変換や最適化の過程で、一部のサブモジュールが計算グラフから参照されなくなることがあります。つまり、それらのサブモジュールはモデルの順伝播計算において実際には使われなくなります。
delete_all_unused_submodules()
メソッドは、このような「使われなくなった」サブモジュールを GraphModule
から自動的に削除します。これにより、以下のようなメリットがあります。
- メモリの効率化: 不要なサブモジュールが削除されることで、モデルが占めるメモリ量を削減できます。
- コードの整理: グラフの構造と一致しない、参照されていないサブモジュールを取り除くことで、
GraphModule
の内部表現がよりクリーンで理解しやすくなります。 - 潜在的な問題の回避: 理論的には、参照されていないサブモジュールが残っていても直接的な問題は少ないかもしれませんが、特定の最適化ツールやデバッグツールが予期しない挙動を示す可能性を減らすことができます。
torch.fx.GraphModule.delete_all_unused_submodules()
は、torch.fx
によって変換された GraphModule
から、計算グラフ内で使用されていないサブモジュールを削除するユーティリティ関数です。これにより、メモリ効率が向上し、GraphModule
の内部状態がより整理されます。
以下に、delete_all_unused_submodules()
に関連する一般的なエラーとそのトラブルシューティングについて説明します。
意図せず必要なサブモジュールが削除されてしまう
これは最も一般的な問題であり、最も理解しにくい問題の一つです。
原因:
delete_all_unused_submodules()
は、GraphModule
の graph
オブジェクトに明示的な call_module
ノードがないサブモジュールを「未使用」と判断します。しかし、以下のようなケースでは、サブモジュールがグラフに明示的に表示されないにもかかわらず、実際にはモデルの機能にとって重要である可能性があります。
- カスタムの
forward
メソッドを持つモジュール: 特殊なforward
メソッドを持つカスタムモジュールが、内部でサブモジュールを間接的に参照している場合も、FXがそれを直接的なグラフノードとして認識できないことがあります。 - Pythonの制御フローによる暗黙的な使用: 例えば、
if/else
文の中で条件付きで呼び出されるサブモジュールや、リスト内包表記やループの中で動的に生成・使用されるサブモジュールは、torch.fx.symbolic_trace
では捕捉されにくいことがあります。symbolic_trace
は静的なグラフを構築するため、動的なPythonの挙動を完全にトレースできない場合があります。
エラーや兆候:
- デバッグ中に、本来存在すべきサブモジュールが
GraphModule
の_modules
辞書から消えていることを確認できる。 - モデルの動作が変更される。
delete_all_unused_submodules()
呼び出し後にモデルを実行すると、以前は正しく動作していたものがAttributeError
(削除されたサブモジュールが存在しないため)や、予期しない出力、あるいはクラッシュを引き起こす。
トラブルシューティング:
delete_all_unused_submodules()
の回避: 問題が解決できない、またはこのメソッドがワークフローに合わない場合は、手動で不要なサブモジュールを管理するか、delete_all_unused_submodules()
を呼び出さない選択肢もあります。ただし、その場合、メモリフットプリントが増加する可能性があります。- FXトレースのカスタマイズ: 問題が
symbolic_trace
の制限に起因する場合、カスタムのTracer
を実装するか、wrap()
やproxy
を使って特定のモジュールや関数がどのようにトレースされるかを制御することを検討してください。これにより、FXがサブモジュールへの参照を正しく捕捉できるようになります。 - 影響を受けるサブモジュールを特定する: どのサブモジュールが削除され、問題を引き起こしているのかを特定します。
GraphModule
の_modules
属性をdelete_all_unused_submodules()
の前後で比較することで、変更点を確認できます。 recompile()
の使用:GraphModule
のグラフを直接変更した場合、delete_all_unused_submodules()
を呼び出す前にgm.recompile()
を呼び出すことで、内部のPythonコード表現とグラフの状態を同期させる必要があります。そうしないと、グラフとモジュールの状態が一致せず、意図しない削除が発生する可能性があります。delete_all_unused_submodules()
の呼び出し順序の確認:GraphModule
に対して他の変換(例:グラフの書き換え、ノードの追加・削除)を行った後にdelete_all_unused_submodules()
を呼び出す場合、それらの変換がサブモジュールへの参照をどのように変更したかを考慮する必要があります。不適切な順序で呼び出すと、必要なモジュールが誤って削除される可能性があります。symbolic_trace
の制限を理解する:torch.fx
がどのようにPythonコードをトレースするかを理解することが重要です。特に、動的な制御フローやPythonの組み込み関数(例えばgetattr
やsetattr
)の使用は、FXのトレースを困難にする可能性があります。
GraphModule が正しく初期化されていない、またはグラフが空
原因:
symbolic_trace
がモデルのトレースに失敗し、有効なグラフが生成されなかった場合。GraphModule
が空のグラフで作成された場合、またはトレースに失敗してグラフがノードを含まない場合に、delete_all_unused_submodules()
を呼び出しても何も起こらないか、期待通りの動作をしないことがあります。
エラーや兆候:
- トレース時に警告やエラーが発生している。
delete_all_unused_submodules()
を呼び出しても、メモリ使用量が減らない、または削除を期待したサブモジュールが残っている。
トラブルシューティング:
- グラフの内容を確認:
GraphModule.graph
をprint()
して、その内容が期待通りにモデルの計算フローを表現しているかを確認します。 - トレースの成功を確認:
torch.fx.symbolic_trace()
の呼び出しが成功し、有効なGraphModule
が返されていることを確認します。エラーメッセージや警告に注意してください。
原因:
torch.fx
は比較的新しいモジュールであり、PyTorchのバージョンアップに伴ってAPIの挙動や内部実装が変更されることがあります。古いバージョンのPyTorchを使用している場合、現在のドキュメントや例と異なる挙動を示す可能性があります。
エラーや兆候:
- 機能が期待通りに動作しない。
- 公式ドキュメントやオンラインの例と異なるエラーが発生する。
トラブルシューティング:
- 最新バージョンへのアップグレード: 可能であれば、PyTorchを最新の安定版にアップグレードすることを検討します。
- PyTorchのバージョンを確認: 使用しているPyTorchのバージョンが、
torch.fx
を利用するのに十分な新しさであるかを確認します。通常、PyTorch 1.8以降が推奨されます。
例1: シンプルなケース - 不要なサブモジュールの削除
この例では、MyModel
というシンプルなモデルを作成し、その中に使用されないサブモジュールを意図的に含めます。その後、delete_all_unused_submodules()
を適用して、不要なモジュールが削除されることを確認します。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, GraphModule
# 1. モデルの定義
class MyModel(nn.Module):
def __init__(self):
super().__init__()
self.used_linear = nn.Linear(10, 5)
self.unused_linear = nn.Linear(5, 2) # このモジュールはforwardで使われない
self.used_relu = nn.ReLU()
self.another_unused_module = nn.Conv2d(3, 3, 3) # これも使われない
def forward(self, x):
# used_linear と used_relu のみを使用
x = self.used_linear(x)
x = self.used_relu(x)
return x
# 2. モデルのインスタンス化
model = MyModel()
print("--- Initial Model Submodules ---")
for name, module in model.named_modules():
print(f" {name}: {module}")
# 3. symbolic_trace を使用して GraphModule を作成
# 入力ダミーデータを渡すことで、グラフのトレースを行います。
dummy_input = torch.randn(1, 10)
traced_model = symbolic_trace(model)
print("\n--- Traced GraphModule before deletion ---")
print(traced_model.graph) # グラフの内容を確認
print("\n--- Submodules in Traced GraphModule before deletion ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# unused_linear や another_unused_module がまだ存在することを確認
# 4. delete_all_unused_submodules() を呼び出す
print("\n--- Calling delete_all_unused_submodules() ---")
traced_model.delete_all_unused_submodules()
print("\n--- Traced GraphModule after deletion ---")
print(traced_model.graph) # グラフの内容は変わらないはず
print("\n--- Submodules in Traced GraphModule after deletion ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# 期待される出力:
# delete_all_unused_submodules() の呼び出し後には、
# 'unused_linear' と 'another_unused_module' がサブモジュールリストから削除されているはずです。
出力のポイント
Submodules in Traced GraphModule after deletion
:delete_all_unused_submodules()
を呼び出した後、unused_linear
とanother_unused_module
がGraphModule
のサブモジュールリストから削除されていることが確認できます。Submodules in Traced GraphModule before deletion
:symbolic_trace
後も、GraphModule
は元のモデルのすべてのサブモジュールを内部に保持していることを示します。ただし、traced_model.graph
を見ると、unused_linear
やanother_unused_module
を呼び出すノードがないことがわかります。Initial Model Submodules
: 元のMyModel
がすべてのサブモジュール(used_linear
,unused_linear
,used_relu
,another_unused_module
)を持っていることを示します。
例2: nn.Sequential
とサブモジュールの参照
この例では、nn.Sequential
を使ってモジュールを構成し、一部のモジュールがグラフから参照されないケースを考えます。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, GraphModule
class ComplexModel(nn.Module):
def __init__(self):
super().__init__()
self.feature_extractor = nn.Sequential(
nn.Conv2d(3, 16, 3, padding=1),
nn.ReLU(),
nn.MaxPool2d(2, 2),
nn.Conv2d(16, 32, 3, padding=1),
nn.ReLU()
)
self.classifier = nn.Linear(32 * 16 * 16, 10) # 32x32入力画像と仮定
self.unused_block = nn.Sequential( # このブロックはforwardで使われない
nn.Linear(100, 50),
nn.Sigmoid()
)
self.extra_dropout = nn.Dropout(0.5) # これも使われない
def forward(self, x):
x = self.feature_extractor(x)
x = x.view(x.size(0), -1) # Flatten
x = self.classifier(x)
return x
model = ComplexModel()
print("--- Initial ComplexModel Submodules ---")
for name, module in model.named_modules():
print(f" {name}: {module}")
dummy_input = torch.randn(1, 3, 32, 32)
traced_model = symbolic_trace(model)
print("\n--- Submodules in Traced ComplexModel before deletion ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# unused_block と extra_dropout がまだ存在することを確認
print("\n--- Calling delete_all_unused_submodules() on ComplexModel ---")
traced_model.delete_all_unused_submodules()
print("\n--- Submodules in Traced ComplexModel after deletion ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# 期待される出力:
# 'unused_block' と 'extra_dropout' およびそのサブモジュール(unused_block.0, unused_block.1)
# が削除されているはずです。
この例では、最初にトレースされたグラフを少し変更し、その後で delete_all_unused_submodules()
を呼び出します。このシナリオでは、グラフノードが削除された結果として、関連するサブモジュールが未使用になる可能性があります。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, GraphModule, Proxy, map_arg
class AModel(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(3, 16, 3, padding=1)
self.bn1 = nn.BatchNorm2d(16)
self.conv2 = nn.Conv2d(16, 32, 3, padding=1)
self.bn2 = nn.BatchNorm2d(32) # forwardでは使わない
self.relu = nn.ReLU()
self.pool = nn.MaxPool2d(2, 2)
self.linear = nn.Linear(32 * 16 * 16, 10) # 仮の入力サイズ
def forward(self, x):
x = self.pool(self.relu(self.bn1(self.conv1(x))))
x = self.conv2(x) # bn2は使わない
x = self.relu(x)
x = x.view(x.size(0), -1)
x = self.linear(x)
return x
model = AModel()
dummy_input = torch.randn(1, 3, 32, 32)
traced_model = symbolic_trace(model)
print("--- Submodules before any graph modification ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# ここでグラフを操作します
# 例えば、conv2の出力を直接reluに渡すように変更し、bn2のノードが存在しないことを確認
# (実際には、symbolic_traceの時点でbn2はグラフに現れていませんが、
# この例では「何らかのグラフ最適化でノードが消えた」というシナリオを想定)
# 確認のため、あえてBN2がグラフに存在しないことを確認
# print(traced_model.graph)
# ここでbn2を明示的に呼び出すノードがあれば、そのノードを削除する操作を記述することも可能
# delete_all_unused_submodules() を呼び出す
print("\n--- Calling delete_all_unused_submodules() ---")
traced_model.delete_all_unused_submodules()
print("\n--- Submodules after deletion (and potential graph modification) ---")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# 期待される出力:
# 'bn2' が削除されているはずです。
これらの例は、torch.fx.GraphModule.delete_all_unused_submodules()
がどのように動作するかを示しています。このメソッドは、GraphModule
の graph
オブジェクトに明示的な call_module
ノードが存在しないサブモジュールを「未使用」と判断し、削除します。
- 大規模なモデルや複雑なモデルの場合、FXのトレースの限界を理解し、必要に応じてカスタムの
Tracer
を使用したり、トレースできない部分を外部の関数として残したりするなどの工夫が必要になることがあります。 delete_all_unused_submodules()
を呼び出す前に、GraphModule.graph
を確認し、意図しないモジュールがグラフから欠落していないかを確認することが重要です。torch.fx.symbolic_trace
は、Pythonの動的な制御フロー(例:if
文、ループ内の動的なモジュール選択)を完全にキャプチャできない場合があります。このような場合、実際に必要なサブモジュールがグラフには現れず、「未使用」と判断されて削除されてしまう可能性があります。
手動でのサブモジュール管理
最も直接的な代替手段は、不要なサブモジュールをプログラムで手動で削除することです。
方法:
GraphModule
の _modules
辞書に直接アクセスし、削除したいモジュールを del
で削除します。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace
class MyModel(nn.Module):
def __init__(self):
super().__init__()
self.used_linear = nn.Linear(10, 5)
self.unused_linear = nn.Linear(5, 2)
self.used_relu = nn.ReLU()
def forward(self, x):
x = self.used_linear(x)
x = self.used_relu(x)
return x
model = MyModel()
traced_model = symbolic_trace(model, torch.randn(1, 10))
print("Before manual deletion:")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# 手動で不要なサブモジュールを削除
if 'unused_linear' in traced_model._modules:
del traced_model._modules['unused_linear']
print("\nAfter manual deletion:")
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# モデルの実行可能性をテスト
try:
output = traced_model(torch.randn(1, 10))
print(f"\nModel output: {output.shape}")
except Exception as e:
print(f"\nError after deletion: {e}")
利点:
- 特定のケースに柔軟: 特定の条件に基づいてのみモジュールを削除したい場合に便利です。
- 完全な制御: どのモジュールを削除するかを完全に制御できます。FXのトレースの制限に左右されません。
欠点:
- グラフとの不整合: グラフにモジュールへの参照が残っている場合、削除後に実行時エラーが発生する可能性があります。
- エラーの可能性: 誤って必要なモジュールを削除してしまうリスクがあります。
- 手動での識別: どのモジュールが不要であるかを自分で特定する必要があります。大規模なモデルでは非現実的です。
torch.nn.Module のクローンと必要なサブモジュールのコピー
GraphModule
の代わりに、新しい torch.nn.Module
インスタンスを作成し、必要なサブモジュールだけをコピーする方法です。
方法:
- 元のモデルまたは
GraphModule
から、必要なサブモジュールの名前を特定します(これはグラフを解析して行う必要があります)。 - 新しい
nn.Module
クラスを定義するか、既存のクラスをコピーして、必要なサブモジュールのみをインスタンス化します。 - 元のモデルから新しいモデルに状態(
state_dict
)をコピーします。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace
class MyModel(nn.Module):
def __init__(self):
super().__init__()
self.used_linear = nn.Linear(10, 5)
self.unused_linear = nn.Linear(5, 2)
self.used_relu = nn.ReLU()
def forward(self, x):
x = self.used_linear(x)
x = self.used_relu(x)
return x
model = MyModel()
traced_model = symbolic_trace(model, torch.randn(1, 10))
# グラフを解析して使用されているモジュールを特定
# (これは手動で、またはtraced_model.graphを走査してプログラム的に行う)
used_module_names = set()
for node in traced_model.graph.nodes:
if node.op == 'call_module':
used_module_names.add(str(node.target)) # node.target はモジュールの名前
print(f"Used module names according to graph: {used_module_names}")
# 新しいモデルクラスを定義し、必要なモジュールだけを持つようにする
class OptimizedMyModel(nn.Module):
def __init__(self, original_model):
super().__init__()
# 必要なモジュールだけをコピー
for name, module in original_model.named_modules():
if name in used_module_names and name != '': # ルートモジュール自身は除外
setattr(self, name, module)
self.original_forward = original_model.forward # 元のforwardメソッドを利用 (注意点あり)
def forward(self, x):
# ここで元のグラフの計算ロジックを再構築するか、FXのグラフを実行させる
# 最も簡単なのはtraced_modelのforwardを呼び出すこと
return traced_model(x)
# オプティマイズされたモデルをインスタンス化
# 注意: この例では tranced_model の forward を直接呼び出すことで、
# グラフの計算ロジックを再利用していますが、
# もし OptimizedMyModel が独立した nn.Module として動作するようにしたい場合、
# その forward メソッド内でグラフのロジックを手動で再構築する必要があります。
# または、traced_model のモジュール構造を完全に模倣した新しい GraphModule を構築します。
# traced_model の _modules を使って、必要なモジュールのみを持つ新しい GraphModule を構築する例
class CleanedGraphModule(nn.Module):
def __init__(self, original_traced_model):
super().__init__()
self.graph = original_traced_model.graph
# グラフから参照されているモジュールのみをコピー
for node in self.graph.nodes:
if node.op == 'call_module':
target_name = str(node.target)
if target_name not in self._modules: # 重複コピーを避ける
# original_traced_model._modules からモジュールを直接参照
setattr(self, target_name, getattr(original_traced_model, target_name))
# グラフを新しいモジュールと同期させる
# self.recompile() は GraphModule のメソッドなので、ここで直接呼び出すことはできない
# ただし、これによって構築されたモジュールは、GraphModule と同等の振る舞いを期待できる
# 厳密には、これは手動で GraphModule のサブセットを構築するアプローチ
def forward(self, *args, **kwargs):
# GraphModule の forward メソッドを呼び出す
return self.graph.proxy_buffer.wrapped_forward(*args, **kwargs)
# 新しい GraphModule を作成
cleaned_gm = CleanedGraphModule(traced_model)
print("\nAfter building a new GraphModule with only used submodules:")
for name, module in cleaned_gm.named_modules():
print(f" {name}: {module}")
try:
output = cleaned_gm(torch.randn(1, 10))
print(f"\nCleaned model output: {output.shape}")
except Exception as e:
print(f"\nError with cleaned model: {e}")
利点:
- 再利用性: 特定のサブセットのモジュールを持つモデルを簡単に作成できます。
- クリーンな構造: 完全に新しいモデルオブジェクトを作成するため、非常にクリーンな構造が得られます。
欠点:
forward
メソッドの再構築: 新しいモジュールが元の計算グラフと同じように動作するように、forward
メソッドを正確に再構築するか、既存のFXグラフを再利用する仕組みが必要です。- 複雑性: グラフの解析と新しいモジュールの構築ロジックを手動で記述する必要があります。
FX 変換パス内でのカスタム処理
torch.fx
を使用したモデル最適化のパイプラインの一部として、不要なモジュールを削除するカスタムパスを実装することも可能です。
方法:
torch.fx.GraphModule
の recompile
メソッドの前に、グラフを直接操作して call_module
ノードを削除し、その後で delete_all_unused_submodules()
を呼び出すことで、より厳密な制御が可能です。または、カスタムの最適化パス内でノードの削除とモジュールの削除を同時に行います。
import torch
import torch.nn as nn
from torch.fx import symbolic_trace, GraphModule, Proxy, Node
class AnotherModel(nn.Module):
def __init__(self):
super().__init__()
self.conv = nn.Conv2d(3, 16, 3)
self.bn = nn.BatchNorm2d(16) # 今回は使わないが、グラフに表示される可能性のあるモジュール
self.relu = nn.ReLU()
self.linear_out = nn.Linear(16 * 30 * 30, 10) # 32x32入力の場合
def forward(self, x):
x = self.conv(x)
# x = self.bn(x) # この行をコメントアウトして、bnを未使用にする
x = self.relu(x)
x = x.view(x.size(0), -1)
x = self.linear_out(x)
return x
model = AnotherModel()
dummy_input = torch.randn(1, 3, 32, 32)
traced_model = symbolic_trace(model, dummy_input)
print("Before custom pass and deletion:")
print(traced_model.graph)
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# カスタム変換パスの例
# ここでは、特定のモジュール(例: bn)の呼び出しノードをグラフから削除することをシミュレート
# 実際には、より複雑な最適化や融合を行うロジックが入る
def custom_optimization_pass(gm: GraphModule):
for node in gm.graph.nodes:
if node.op == 'call_module' and str(node.target) == 'bn':
print(f"Removing node for unused module: {node.target}")
# ノードを削除する際には、その入力と出力が適切に処理されるように注意が必要
# この例では、bnの出力が他のノードに接続されていないと仮定
# 実際には、出力をスキップして元の入力を使うようにグラフを書き換える
# 例: next_node.replace_input_with(node, node.args[0])
node.replace_all_uses_with(node.args[0]) # bnの出力をその入力で置き換える
gm.graph.erase_node(node)
gm.graph.lint() # グラフが有効であることを確認
gm.recompile() # グラフの変更を反映させる
# カスタムパスを実行
custom_optimization_pass(traced_model)
# その後で delete_all_unused_submodules() を呼び出す
print("\nCalling delete_all_unused_submodules() after custom pass:")
traced_model.delete_all_unused_submodules()
print("\nAfter custom pass and deletion:")
print(traced_model.graph) # BNノードが消えていることを確認
for name, module in traced_model.named_modules():
print(f" {name}: {module}")
# 期待される出力:
# 'bn' モジュールが削除されているはずです。
利点:
- 複雑な最適化への対応: モジュールフュージョンなど、より複雑なグラフ変換の一環として不要なモジュールを削除するのに適しています。
- 自動化: 特定の最適化ルールに基づいて不要なモジュールを自動的に識別・削除できます。
- FXエコシステムとの統合: FXの強力なグラフ操作機能を利用できます。
欠点:
- デバッグの複雑さ: グラフ変換が複雑になると、デバッグが難しくなります。
- FXの知識が必要: グラフノードの操作方法やFXの概念(
Node
、Proxy
、recompile
など)を理解する必要があります。
もし目的がデプロイメントの効率化やC++環境での実行であれば、torch.jit.script
を使用してモデル全体をTorchScriptにコンパイルするのも一つの代替手段です。
方法:
torch.jit.script(model)
を呼び出すだけです。TorchScriptはモデルを静的なグラフとしてコンパパイルし、Pythonのサブモジュール参照ではなく、内部のグラフ表現を使用します。これにより、未使用のPythonオブジェクトはガベージコレクションによって自動的にクリーンアップされる可能性があります。
import torch
import torch.nn as nn
class JitModel(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(3, 16, 3)
self.unused_conv = nn.Conv2d(16, 32, 3) # 未使用
self.relu = nn.ReLU()
self.linear_out = nn.Linear(16 * 30 * 30, 10)
def forward(self, x):
x = self.conv1(x)
x = self.relu(x)
x = x.view(x.size(0), -1)
x = self.linear_out(x)
return x
model = JitModel()
# TorchScriptにコンパイル
scripted_model = torch.jit.script(model)
print("--- Original Model Submodules ---")
for name, module in model.named_modules():
print(f" {name}: {module}")
print("\n--- Scripted Model ---")
# TorchScriptモデルはPythonのサブモジュール構造とは異なる内部表現を持つ
# そのため、named_modules() の出力は期待と異なる場合がある
# しかし、内部的には未使用のモジュールは実行グラフから除外される
print(scripted_model.graph) # グラフを確認
# TorchScriptモデルの内部モジュールは、直接アクセスしにくい
# print(scripted_model.code) # ソースコードを確認することも可能
# 実行可能性をテスト
try:
output = scripted_model(torch.randn(1, 3, 32, 32))
print(f"\nScripted model output: {output.shape}")
except Exception as e:
print(f"\nError with scripted model: {e}")
利点:
- Python依存からの脱却: Pythonインタープリタなしで実行できます。
- 自動最適化: TorchScriptは自動的にいくつかのグラフ最適化(未使用のノードの削除など)を実行します。
- デプロイメント向け: 生産環境やC++での実行に適しています。
欠点:
- FXとは異なる目的: FXがグラフ変換と最適化のための柔軟なツールであるのに対し、TorchScriptは主にデプロイメントとパフォーマンスのためのコンパイルレイヤーです。
- デバッグの複雑さ: TorchScriptコードのデバッグは、通常のPythonコードよりも複雑になることがあります。
- Pythonの動的機能の制限:
torch.jit.script
は、Pythonのすべての動的機能をサポートしているわけではありません(例:一部のリスト操作、getattr
の動的な使用など)。
torch.fx.GraphModule.delete_all_unused_submodules()
は、torch.fx
のワークフロー内で最もシンプルで推奨される方法です。しかし、FXトレースの限界に直面した場合や、特定の要件がある場合には、上記のような代替手段を検討する価値があります。
- FXトレースが困難な複雑なモデル:
delete_all_unused_submodules()
の代わりに、必要なモジュールを明示的にコピーして新しいモデルを構築するアプローチが有効な場合があります。 - デプロイメントが主目的:
torch.jit.script
が有力な選択肢です。 delete_all_unused_submodules()
が機能しない、または誤って削除する場合: 手動での削除や、より厳密なグラフ変換パスの設計が必要です。