Zetknąłem się z problemem!
Ostatnio zetknąłem się z problemem wejścia / wyjścia. Docelowe i dane wejściowe są przechowywane w plikach h5py. Każdy plik docelowy wynosi 2,6 GB, a każdy plik wejściowy-10,2 GB. Mam 5 zestawów danych wejściowych i w sumie 5 docelowych zestawów danych.
Stworzyłem własną funkcję zestawu danych dla każdego pliku h5py, a następnie wykorzystał dane.Klasa ConcatDataset do komunikacji wszystkich zestawów danych. Funkcja własnego zestawu danych jest:
class MydataSet(Dataset):
def __init__(self, indx=1, root_path='./xxx', tar_size=128, data_aug=True, train=True):
self.train = train
if self.train:
self.in_file = pth.join(root_path, 'train', 'train_noisy_%d.h5' % indx)
self.tar_file = pth.join(root_path, 'train', 'train_clean_%d.h5' % indx)
else:
self.in_file = pth.join(root_path, 'test', 'test_noisy.h5')
self.tar_file = pth.join(root_path, 'test', 'test_clean.h5')
self.h5f_n = h5py.File(self.in_file, 'r', driver='core')
self.h5f_c = h5py.File(self.tar_file, 'r')
self.keys_n = list(self.h5f_n.keys())
self.keys_c = list(self.h5f_c.keys())
# h5f_n.close()
# h5f_c.close()
self.tar_size = tar_size
self.data_aug = data_aug
def __len__(self):
return len(self.keys_n)
def __del__(self):
self.h5f_n.close()
self.h5f_c.close()
def __getitem__(self, index):
keyn = self.keys_n[index]
keyc = self.keys_c[index]
datan = np.array(self.h5f_n[keyn])
datac = np.array(self.h5f_c[keyc])
datan_tensor = torch.from_numpy(datan).unsqueeze(0)
datac_tensor = torch.from_numpy(datac)
if self.data_aug and np.random.randint(2, size=1)[0] == 1: # horizontal flip
datan_tensor = torch.flip(datan_tensor,dims=[2]) # c h w
datac_tensor = torch.flip(datac_tensor,dims=[2])
Następnie używam dataset_train = data.ConcatDataset([MydataSet(indx=index, train=True) for index in range(1, 6)])
do treningów. Gdy używane są tylko 2-3 pliku h5py, prędkość wejścia / wyjścia normalna, i wszystko chodzi poprawnie. Jednak w przypadku 5 plików szybkość uczenia się stopniowo maleje (od 5 iteracji/s do 1 iteracji/z). Zmieniam num_worker, i problem nadal istnieje.
Czy ktoś może mi podpowiedzieć rozwiązanie? Czy mogę połączyć kilka plików h5py w jeden większy? Lub innymi metodami? Z góry dziękuję!