mirror of
https://github.com/Virtual-World-RE/NeoGF.git
synced 2024-11-15 12:45:34 +01:00
PEP 8 modifs excepté la taille maxi de 79 caractères
Vérification du code automatisée avec : autopep8 pzztool.py --in-place
This commit is contained in:
parent
81a90a363b
commit
884bc0fd4e
73
pzztool.py
73
pzztool.py
|
@ -1,17 +1,20 @@
|
||||||
#!/usr/bin/env python3
|
#!/usr/bin/env python3
|
||||||
|
from math import ceil
|
||||||
|
from struct import unpack, pack
|
||||||
|
from pathlib import Path
|
||||||
|
from os import listdir
|
||||||
__version__ = "1.2"
|
__version__ = "1.2"
|
||||||
__author__ = "rigodron, algoflash, GGLinnk"
|
__author__ = "rigodron, algoflash, GGLinnk"
|
||||||
__OriginalAutor__ = "infval"
|
__OriginalAutor__ = "infval"
|
||||||
|
__license__ = "MIT"
|
||||||
|
__status__ = "developpement"
|
||||||
|
|
||||||
from os import listdir
|
|
||||||
from pathlib import Path
|
|
||||||
from struct import unpack, pack
|
|
||||||
from math import ceil
|
|
||||||
|
|
||||||
BIT_COMPRESSION_FLAG = 0x40000000
|
BIT_COMPRESSION_FLAG = 0x40000000
|
||||||
FILE_LENGTH_MASK = 0x3FFFFFFF
|
FILE_LENGTH_MASK = 0x3FFFFFFF
|
||||||
CHUNK_SIZE = 0x800
|
CHUNK_SIZE = 0x800
|
||||||
|
|
||||||
|
|
||||||
def pzz_decompress(compressed_bytes: bytes):
|
def pzz_decompress(compressed_bytes: bytes):
|
||||||
uncompressed_bytes = bytearray()
|
uncompressed_bytes = bytearray()
|
||||||
compressed_bytes_size = len(compressed_bytes) // 2 * 2
|
compressed_bytes_size = len(compressed_bytes) // 2 * 2
|
||||||
|
@ -53,6 +56,7 @@ def pzz_decompress(compressed_bytes: bytes):
|
||||||
|
|
||||||
return uncompressed_bytes
|
return uncompressed_bytes
|
||||||
|
|
||||||
|
|
||||||
def bytes_align(bout: bytes):
|
def bytes_align(bout: bytes):
|
||||||
success = False
|
success = False
|
||||||
while not success:
|
while not success:
|
||||||
|
@ -61,6 +65,7 @@ def bytes_align(bout: bytes):
|
||||||
if hex(address).endswith("00"):
|
if hex(address).endswith("00"):
|
||||||
break
|
break
|
||||||
|
|
||||||
|
|
||||||
def pzz_compress(b):
|
def pzz_compress(b):
|
||||||
bout = bytearray()
|
bout = bytearray()
|
||||||
size_b = len(b) // 2 * 2
|
size_b = len(b) // 2 * 2
|
||||||
|
@ -136,10 +141,12 @@ def pzz_compress(b):
|
||||||
|
|
||||||
return bout
|
return bout
|
||||||
|
|
||||||
|
|
||||||
def pzz_unpack(pzz_path, dest_folder):
|
def pzz_unpack(pzz_path, dest_folder):
|
||||||
# Script BMS pour les pzz de ps2 (GioGio's adventure) -> https://zenhax.com/viewtopic.php?f=9&t=8724&p=39437#p39437
|
# Script BMS pour les pzz de ps2 (GioGio's adventure) -> https://zenhax.com/viewtopic.php?f=9&t=8724&p=39437#p39437
|
||||||
if pzz_path.suffix != ".pzz":
|
if pzz_path.suffix != ".pzz":
|
||||||
raise("Unpack - Invalid file format" + pzz_path.suffix + " ; unpack take only .pzz fileformat")
|
raise("Unpack - Invalid file format" + pzz_path.suffix +
|
||||||
|
" ; unpack take only .pzz fileformat")
|
||||||
|
|
||||||
if dest_folder != Path('.'):
|
if dest_folder != Path('.'):
|
||||||
unpacked_pzz_path = dest_folder
|
unpacked_pzz_path = dest_folder
|
||||||
|
@ -149,17 +156,21 @@ def pzz_unpack(pzz_path, dest_folder):
|
||||||
|
|
||||||
with open(pzz_path, "rb") as pzz_file:
|
with open(pzz_path, "rb") as pzz_file:
|
||||||
# file_count reçoit le nombre de fichiers présent dans le PZZ :
|
# file_count reçoit le nombre de fichiers présent dans le PZZ :
|
||||||
file_count, = unpack(">I", pzz_file.read(4)) # On lit les 4 premiers octets (uint32 big-endian)
|
# On lit les 4 premiers octets (uint32 big-endian)
|
||||||
|
file_count, = unpack(">I", pzz_file.read(4))
|
||||||
|
|
||||||
# files_descriptors reçoit un tuple avec l'ensemble des descripteurs de fichiers (groupes d'uint32 big-endian)
|
# files_descriptors reçoit un tuple avec l'ensemble des descripteurs de fichiers (groupes d'uint32 big-endian)
|
||||||
files_descriptors = unpack(">{}I".format(file_count), pzz_file.read(file_count * 4))
|
files_descriptors = unpack(">{}I".format(
|
||||||
|
file_count), pzz_file.read(file_count * 4))
|
||||||
|
|
||||||
print("File count:", file_count)
|
print("File count:", file_count)
|
||||||
|
|
||||||
offset = CHUNK_SIZE
|
offset = CHUNK_SIZE
|
||||||
for index, file_descriptor in enumerate(files_descriptors): # on parcours le tuple de descripteurs de fichiers
|
# on parcours le tuple de descripteurs de fichiers
|
||||||
|
for index, file_descriptor in enumerate(files_descriptors):
|
||||||
|
|
||||||
is_compressed = (file_descriptor & BIT_COMPRESSION_FLAG) != 0 # Le bit 30 correspond au flag de compression (bits numérotés de 0 à 31)
|
# Le bit 30 correspond au flag de compression (bits numérotés de 0 à 31)
|
||||||
|
is_compressed = (file_descriptor & BIT_COMPRESSION_FLAG) != 0
|
||||||
if not is_compressed: # Si le fichier n'est pas compressé, on ajoute 'U' derrière l'index
|
if not is_compressed: # Si le fichier n'est pas compressé, on ajoute 'U' derrière l'index
|
||||||
compression_status = 'U'
|
compression_status = 'U'
|
||||||
comp_str = ""
|
comp_str = ""
|
||||||
|
@ -172,10 +183,12 @@ def pzz_unpack(pzz_path, dest_folder):
|
||||||
|
|
||||||
# file_len reçoit la taille du fichier
|
# file_len reçoit la taille du fichier
|
||||||
# la taille du fichier est un multiple de CHUNK_SIZE, on paddera avec des 0 jusqu'au fichier suivant
|
# la taille du fichier est un multiple de CHUNK_SIZE, on paddera avec des 0 jusqu'au fichier suivant
|
||||||
file_len = file_descriptor * CHUNK_SIZE # file_len contient alors la taille du fichier en octets
|
# file_len contient alors la taille du fichier en octets
|
||||||
|
file_len = file_descriptor * CHUNK_SIZE
|
||||||
|
|
||||||
# On forme le nom du nouveau fichier que l'on va extraire
|
# On forme le nom du nouveau fichier que l'on va extraire
|
||||||
filename = "{:03}{}_{}{}".format(index, compression_status, pzz_path.stem, comp_str)
|
filename = "{:03}{}_{}{}".format(
|
||||||
|
index, compression_status, pzz_path.stem, comp_str)
|
||||||
file_path = (unpacked_pzz_path / filename).with_suffix(".dat")
|
file_path = (unpacked_pzz_path / filename).with_suffix(".dat")
|
||||||
|
|
||||||
print("Offset: {:010} - {}".format(offset, file_path.stem))
|
print("Offset: {:010} - {}".format(offset, file_path.stem))
|
||||||
|
@ -194,6 +207,7 @@ def pzz_unpack(pzz_path, dest_folder):
|
||||||
# La taille du fichier étant un multiple de CHUNK_SIZE, on aura complété les 2048 octets finaux avec des 0x00
|
# La taille du fichier étant un multiple de CHUNK_SIZE, on aura complété les 2048 octets finaux avec des 0x00
|
||||||
offset += file_len
|
offset += file_len
|
||||||
|
|
||||||
|
|
||||||
def pzz_pack(src_path, dest_file):
|
def pzz_pack(src_path, dest_file):
|
||||||
# On récupère les fichiers du dossier à compresser
|
# On récupère les fichiers du dossier à compresser
|
||||||
src_files = listdir(src_path)
|
src_files = listdir(src_path)
|
||||||
|
@ -223,14 +237,15 @@ def pzz_pack(src_path, dest_file):
|
||||||
is_compressed = (len(src_file_name.split("_compressed")) > 1)
|
is_compressed = (len(src_file_name.split("_compressed")) > 1)
|
||||||
|
|
||||||
# Le fichier doit être compressé avant d'être pack
|
# Le fichier doit être compressé avant d'être pack
|
||||||
if compression_status == 'C' and is_compressed == False :
|
if compression_status == 'C' and is_compressed is False:
|
||||||
pass
|
pass
|
||||||
# Le fichier doit être décompressé avant d'être pack
|
# Le fichier doit être décompressé avant d'être pack
|
||||||
elif compression_status == 'U' and is_compressed == True :
|
elif compression_status == 'U' and is_compressed is True:
|
||||||
pass
|
pass
|
||||||
|
|
||||||
# file_descriptor = arrondi supérieur de la taille / CHUNK_SIZE
|
# file_descriptor = arrondi supérieur de la taille / CHUNK_SIZE
|
||||||
file_descriptor = ceil( (src_path / src_file_name).stat().st_size / CHUNK_SIZE)
|
file_descriptor = ceil(
|
||||||
|
(src_path / src_file_name).stat().st_size / CHUNK_SIZE)
|
||||||
|
|
||||||
# On ajoute le flag de compression au file_descriptor
|
# On ajoute le flag de compression au file_descriptor
|
||||||
if is_compressed:
|
if is_compressed:
|
||||||
|
@ -251,19 +266,28 @@ def pzz_pack(src_path, dest_file):
|
||||||
|
|
||||||
# Si le fichier n'est pas compressé, on ajoute le padding pour correspondre à un multiple de CHUNK_SIZE
|
# Si le fichier n'est pas compressé, on ajoute le padding pour correspondre à un multiple de CHUNK_SIZE
|
||||||
if not is_compressed and (src_file.tell() % CHUNK_SIZE) > 0:
|
if not is_compressed and (src_file.tell() % CHUNK_SIZE) > 0:
|
||||||
pzz_file.write( b"\x00" * (CHUNK_SIZE - (src_file.tell() % CHUNK_SIZE)) )
|
pzz_file.write(
|
||||||
|
b"\x00" * (CHUNK_SIZE - (src_file.tell() % CHUNK_SIZE)))
|
||||||
|
|
||||||
|
|
||||||
def get_argparser():
|
def get_argparser():
|
||||||
import argparse
|
import argparse
|
||||||
parser = argparse.ArgumentParser(description='PZZ (de)compressor & unpacker - [GameCube] Gotcha Force v' + __version__)
|
parser = argparse.ArgumentParser(
|
||||||
parser.add_argument('--version', action='version', version='%(prog)s ' + __version__)
|
description='PZZ (de)compressor & unpacker - [GameCube] Gotcha Force v' + __version__)
|
||||||
|
parser.add_argument('--version', action='version',
|
||||||
|
version='%(prog)s ' + __version__)
|
||||||
parser.add_argument('input_path', metavar='INPUT', help='')
|
parser.add_argument('input_path', metavar='INPUT', help='')
|
||||||
parser.add_argument('output_path', metavar='OUTPUT', help='', nargs='?', default="")
|
parser.add_argument('output_path', metavar='OUTPUT',
|
||||||
|
help='', nargs='?', default="")
|
||||||
group = parser.add_mutually_exclusive_group(required=True)
|
group = parser.add_mutually_exclusive_group(required=True)
|
||||||
group.add_argument('-p', '--pack', action='store_true', help="-p source_folder dest_file.pzz(optionnal) : Pack source_folder in new file source_folder.pzz")
|
group.add_argument('-p', '--pack', action='store_true',
|
||||||
group.add_argument('-u', '--unpack', action='store_true', help='-u source_folder.pzz dest_folder(optionnal) : Unpack the pzz in new folder source_folder')
|
help="-p source_folder dest_file.pzz(optionnal) : Pack source_folder in new file source_folder.pzz")
|
||||||
group.add_argument('-bp', '--batch-pack', action='store_true', help='-bp source_folder dest_folder(optionnal - if not specified it will pack in source_folder)')
|
group.add_argument('-u', '--unpack', action='store_true',
|
||||||
group.add_argument('-bu', '--batch-unpack', action='store_true', help='INPUT relative pattern; e.g. AFS_DATA\\*.pzz')
|
help='-u source_folder.pzz dest_folder(optionnal) : Unpack the pzz in new folder source_folder')
|
||||||
|
group.add_argument('-bp', '--batch-pack', action='store_true',
|
||||||
|
help='-bp source_folder dest_folder(optionnal - if not specified it will pack in source_folder)')
|
||||||
|
group.add_argument('-bu', '--batch-unpack', action='store_true',
|
||||||
|
help='INPUT relative pattern; e.g. AFS_DATA\\*.pzz')
|
||||||
|
|
||||||
# group.add_argument('-a', '-aa',action='store_true', help='sha256')
|
# group.add_argument('-a', '-aa',action='store_true', help='sha256')
|
||||||
# group.add_argument('-c', '--compress', action='store_true', help='')
|
# group.add_argument('-c', '--compress', action='store_true', help='')
|
||||||
|
@ -272,6 +296,7 @@ def get_argparser():
|
||||||
# group.add_argument('-bd', '--batch-decompress', action='store_true', help='INPUT relative pattern; e.g. AFS_DATA\\*_compressed.dat')
|
# group.add_argument('-bd', '--batch-decompress', action='store_true', help='INPUT relative pattern; e.g. AFS_DATA\\*_compressed.dat')
|
||||||
return parser
|
return parser
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
if __name__ == '__main__':
|
||||||
args = get_argparser().parse_args()
|
args = get_argparser().parse_args()
|
||||||
|
|
||||||
|
@ -318,7 +343,8 @@ if __name__ == '__main__':
|
||||||
p_output.mkdir(exist_ok=True)
|
p_output.mkdir(exist_ok=True)
|
||||||
|
|
||||||
for folder in listdir(p_input):
|
for folder in listdir(p_input):
|
||||||
pzz_pack( p_input / folder, p_output / Path(folder).with_suffix(".pzz"))
|
pzz_pack(p_input / folder, p_output /
|
||||||
|
Path(folder).with_suffix(".pzz"))
|
||||||
elif args.batch_unpack:
|
elif args.batch_unpack:
|
||||||
print("### Batch Unpack")
|
print("### Batch Unpack")
|
||||||
p_output.mkdir(exist_ok=True)
|
p_output.mkdir(exist_ok=True)
|
||||||
|
@ -327,6 +353,7 @@ if __name__ == '__main__':
|
||||||
pzz_unpack(p_input / filename, p_output / Path(filename).stem)
|
pzz_unpack(p_input / filename, p_output / Path(filename).stem)
|
||||||
|
|
||||||
"""
|
"""
|
||||||
|
Code pour le developement --> pzztool.py -a a
|
||||||
compare le sha256 de chaque PZZ du dossier pzz et pzz2 puis affiche le nom de fichier en cas de différence
|
compare le sha256 de chaque PZZ du dossier pzz et pzz2 puis affiche le nom de fichier en cas de différence
|
||||||
import hashlib
|
import hashlib
|
||||||
for pzz_file in listdir("pzz"):
|
for pzz_file in listdir("pzz"):
|
||||||
|
|
Loading…
Reference in New Issue
Block a user