From 7edaef356340ca1b4c330344742082f5de800814 Mon Sep 17 00:00:00 2001 From: alex Date: Sat, 12 Jul 2025 17:33:38 +0200 Subject: [PATCH] add func parm type --- elab_orchestrator.py | 12 ++++----- ftp_csv_receiver.py | 8 +++--- load_orchestrator.py | 16 ++++++------ utils/csv/data_preparation.py | 28 ++++++++++----------- utils/csv/loaders.py | 4 +-- utils/csv/parser.py | 4 +-- utils/database/loader_action.py | 16 ++++++------ utils/database/matlab_query.py | 4 +-- utils/database/nodes_query.py | 4 +-- utils/ftp/user_admin.py | 27 +++++++++++++++++--- utils/parsers/__init__.py | 2 +- utils/parsers/by_name/__init__.py | 2 +- utils/parsers/by_type/cr1000x_cr1000x.py | 13 +++++++++- utils/parsers/by_type/d2w_d2w.py | 13 +++++++++- utils/parsers/by_type/g201_g201.py | 13 +++++++++- utils/parsers/by_type/g301_g301.py | 13 +++++++++- utils/parsers/by_type/g801_iptm.py | 13 +++++++++- utils/parsers/by_type/g801_loc.py | 13 +++++++++- utils/parsers/by_type/g801_mums.py | 13 +++++++++- utils/parsers/by_type/g801_musa.py | 13 +++++++++- utils/parsers/by_type/g801_mux.py | 13 +++++++++- utils/parsers/by_type/g802_dsas.py | 13 +++++++++- utils/parsers/by_type/g802_gd.py | 13 +++++++++- utils/parsers/by_type/g802_loc.py | 13 +++++++++- utils/parsers/by_type/g802_modb.py | 13 +++++++++- utils/parsers/by_type/g802_mums.py | 13 +++++++++- utils/parsers/by_type/g802_mux.py | 13 +++++++++- utils/parsers/by_type/gs1_gs1.py | 13 +++++++++- utils/parsers/by_type/hortus_hortus.py | 13 +++++++++- utils/parsers/by_type/isi_csv_log_vulink.py | 2 +- utils/parsers/by_type/tlp_loc.py | 13 +++++++++- utils/parsers/by_type/tlp_tlp.py | 13 +++++++++- 32 files changed, 301 insertions(+), 75 deletions(-) diff --git a/elab_orchestrator.py b/elab_orchestrator.py index df64276..9a94208 100755 --- a/elab_orchestrator.py +++ b/elab_orchestrator.py @@ -16,16 +16,16 @@ from utils.csv.loaders import get_next_csv_atomic # Crea una context variable per identificare il worker -worker_context = contextvars.ContextVar('worker_id', default='00') +worker_context = contextvars.ContextVar('worker_id', default='^-^') # Formatter personalizzato che include il worker_id class WorkerFormatter(logging.Formatter): """Formatter personalizzato che include l'ID del worker nei log.""" - def format(self, record): + def format(self, record: str) -> str: """Formatta il record di log includendo l'ID del worker. Args: - record: Il record di log da formattare. + record (str): Il record di log da formattare. Returns: La stringa formattata del record di log. @@ -41,7 +41,7 @@ ELAB_PROCESSING_DELAY = 0.2 # Tempo di attesa se non ci sono record da elaborare NO_RECORD_SLEEP = 60 -async def worker(worker_id: int, cfg: object, pool) -> None: +async def worker(worker_id: int, cfg: object, pool: object) -> None: """Esegue il ciclo di lavoro per l'elaborazione dei dati caricati. Il worker preleva un record dal database che indica dati pronti per @@ -51,10 +51,10 @@ async def worker(worker_id: int, cfg: object, pool) -> None: Args: worker_id (int): L'ID univoco del worker. cfg (object): L'oggetto di configurazione. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. """ # Imposta il context per questo worker - worker_context.set(f"W{worker_id}") + worker_context.set(f"W{worker_id:02d}") debug_mode = (logging.getLogger().getEffectiveLevel() == logging.DEBUG) logger.info("Avviato") diff --git a/ftp_csv_receiver.py b/ftp_csv_receiver.py index d54cb31..b679a23 100755 --- a/ftp_csv_receiver.py +++ b/ftp_csv_receiver.py @@ -61,13 +61,13 @@ class DummySha256Authorizer(DummyAuthorizer): class ASEHandler(FTPHandler): """Custom FTP handler that extends FTPHandler with custom commands and file handling.""" - def __init__(self: object, conn: object, server: object, ioloop=None) -> None: + def __init__(self: object, conn: object, server: object, ioloop:object=None) -> None: """Initializes the handler, adds custom commands, and sets up command permissions. Args: - conn: The connection object. - server: The FTP server object. - ioloop: The I/O loop object. + conn (object): The connection object. + server (object): The FTP server object. + ioloop (object): The I/O loop object. """ super().__init__(conn, server, ioloop) self.proto_cmds = FTPHandler.proto_cmds.copy() diff --git a/load_orchestrator.py b/load_orchestrator.py index 32145eb..46efaba 100755 --- a/load_orchestrator.py +++ b/load_orchestrator.py @@ -15,18 +15,18 @@ from utils.database import CSV_RECEIVED from utils.csv.loaders import get_next_csv_atomic # Crea una context variable per identificare il worker -worker_context = contextvars.ContextVar("worker_id", default="00") +worker_context = contextvars.ContextVar("worker_id", default="^-^") # Formatter personalizzato che include il worker_id class WorkerFormatter(logging.Formatter): """Formatter personalizzato per i log che include l'ID del worker.""" - def format(self, record): + def format(self, record: str) -> str: """Formatta il record di log includendo l'ID del worker. Args: - record: Il record di log da formattare. + record (str): Il record di log da formattare. Returns: La stringa formattata del record di log. @@ -44,7 +44,7 @@ CSV_PROCESSING_DELAY = 0.2 NO_RECORD_SLEEP = 60 -async def worker(worker_id: int, cfg: object, pool) -> None: +async def worker(worker_id: int, cfg: object, pool: object) -> None: """Esegue il ciclo di lavoro per l'elaborazione dei file CSV. Il worker preleva un record CSV dal database, ne elabora il contenuto @@ -53,10 +53,10 @@ async def worker(worker_id: int, cfg: object, pool) -> None: Args: worker_id (int): L'ID univoco del worker. cfg (object): L'oggetto di configurazione. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. """ # Imposta il context per questo worker - worker_context.set(f"W{worker_id}") + worker_context.set(f"W{worker_id:02d}") debug_mode = logging.getLogger().getEffectiveLevel() == logging.DEBUG logger.info("Avviato") @@ -81,13 +81,13 @@ async def worker(worker_id: int, cfg: object, pool) -> None: await asyncio.sleep(1) -async def load_csv(record: tuple, cfg: object, pool) -> bool: +async def load_csv(record: tuple, cfg: object, pool: object) -> bool: """Carica ed elabora un record CSV utilizzando il modulo di parsing appropriato. Args: record: Una tupla contenente i dettagli del record CSV da elaborare (id, unit_type, tool_type, unit_name, tool_name). cfg: L'oggetto di configurazione contenente i parametri del sistema. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. Returns: True se l'elaborazione del CSV è avvenuta con successo, False altrimenti. diff --git a/utils/csv/data_preparation.py b/utils/csv/data_preparation.py index b5c7813..a752fd2 100644 --- a/utils/csv/data_preparation.py +++ b/utils/csv/data_preparation.py @@ -8,14 +8,14 @@ from itertools import islice logger = logging.getLogger(__name__) -async def get_data(cfg: object, id: int, pool) -> tuple: +async def get_data(cfg: object, id: int, pool: object) -> tuple: """ Retrieves unit name, tool name, and tool data for a given record ID from the database. Args: cfg (object): Configuration object containing database table name. id (int): The ID of the record to retrieve. - pool: The database connection pool. + pool (object): The database connection pool. Returns: tuple: A tuple containing unit_name, tool_name, and tool_data. """ @@ -26,14 +26,14 @@ async def get_data(cfg: object, id: int, pool) -> tuple: return unit_name, tool_name, tool_data -async def make_pipe_sep_matrix(cfg: object, id: int, pool) -> list: +async def make_pipe_sep_matrix(cfg: object, id: int, pool: object) -> list: """ Processes pipe-separated data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ @@ -58,14 +58,14 @@ async def make_pipe_sep_matrix(cfg: object, id: int, pool) -> list: return matrice_valori -async def make_ain_din_matrix(cfg: object, id: int, pool) -> list: +async def make_ain_din_matrix(cfg: object, id: int, pool: object) -> list: """ Processes analog and digital input data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ @@ -92,14 +92,14 @@ async def make_ain_din_matrix(cfg: object, id: int, pool) -> list: return matrice_valori -async def make_channels_matrix(cfg: object, id: int, pool) -> list: +async def make_channels_matrix(cfg: object, id: int, pool: object) -> list: """ Processes channel-based data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ @@ -120,14 +120,14 @@ async def make_channels_matrix(cfg: object, id: int, pool) -> list: return matrice_valori -async def make_musa_matrix(cfg: object, id: int, pool) -> list: +async def make_musa_matrix(cfg: object, id: int, pool: object) -> list: """ Processes 'Musa' specific data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ @@ -153,14 +153,14 @@ async def make_musa_matrix(cfg: object, id: int, pool) -> list: return matrice_valori -async def make_tlp_matrix(cfg: object, id: int, pool) -> list: +async def make_tlp_matrix(cfg: object, id: int, pool: object) -> list: """ Processes 'TLP' specific data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ @@ -180,14 +180,14 @@ async def make_tlp_matrix(cfg: object, id: int, pool) -> list: -async def make_gd_matrix(cfg: object, id: int, pool) -> list: +async def make_gd_matrix(cfg: object, id: int, pool: object) -> list: """ Processes 'GD' specific data from a CSV record into a structured matrix. Args: cfg (object): Configuration object. id (int): The ID of the CSV record. - pool: The database connection pool. + pool (object): The database connection pool. Returns: list: A list of lists, where each inner list represents a row in the matrix. """ diff --git a/utils/csv/loaders.py b/utils/csv/loaders.py index 8612700..3020ffc 100644 --- a/utils/csv/loaders.py +++ b/utils/csv/loaders.py @@ -6,14 +6,14 @@ import logging logger = logging.getLogger(__name__) -async def main_loader(cfg: object, id: int, pool, action: str) -> None: +async def main_loader(cfg: object, id: int, pool: object, action: str) -> None: """ Main loader function to process CSV data based on the specified action. Args: cfg (object): Configuration object. id (int): The ID of the CSV record to process. - pool: The database connection pool. + pool (object): The database connection pool. action (str): The type of data processing to perform (e.g., "pipe_separator", "analogic_digital"). """ type_matrix_mapping = { diff --git a/utils/csv/parser.py b/utils/csv/parser.py index 75be05e..fe3f872 100644 --- a/utils/csv/parser.py +++ b/utils/csv/parser.py @@ -1,9 +1,7 @@ import re def extract_value(patterns: list, primary_source: str, secondary_source: str, default='Not Defined') -> str: - """Extracts the first match for a list of patterns from the primary source. - Falls back to the secondary source if no match is found. - """ + for source in (primary_source, secondary_source): for pattern in patterns: matches = re.findall(pattern, source, re.IGNORECASE) diff --git a/utils/database/loader_action.py b/utils/database/loader_action.py index 16855d0..e18718c 100644 --- a/utils/database/loader_action.py +++ b/utils/database/loader_action.py @@ -7,7 +7,7 @@ logger = logging.getLogger(__name__) timestamp_cols = ["inserted_at", "loaded_at", "elaborated_at"] -async def load_data(cfg: object, matrice_valori: list, pool) -> bool: +async def load_data(cfg: object, matrice_valori: list, pool: object) -> bool: """Carica una lista di record di dati grezzi nel database. Esegue un'operazione di inserimento massivo (executemany) per caricare i dati. @@ -17,7 +17,7 @@ async def load_data(cfg: object, matrice_valori: list, pool) -> bool: Args: cfg (object): L'oggetto di configurazione contenente i nomi delle tabelle e i parametri di re-tentativo. matrice_valori (list): Una lista di tuple, dove ogni tupla rappresenta una riga da inserire. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. Returns: bool: True se il caricamento ha avuto successo, False altrimenti. @@ -93,14 +93,14 @@ async def load_data(cfg: object, matrice_valori: list, pool) -> bool: return rc -async def update_status(cfg: object, id: int, status: int, pool) -> None: +async def update_status(cfg: object, id: int, status: int, pool: object) -> None: """Aggiorna lo stato di un record nella tabella dei record CSV. Args: cfg (object): L'oggetto di configurazione contenente il nome della tabella. id (int): L'ID del record da aggiornare. status (int): Il nuovo stato da impostare. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. """ async with pool.acquire() as conn: async with conn.cursor() as cur: @@ -115,7 +115,7 @@ async def update_status(cfg: object, id: int, status: int, pool) -> None: logging.error(f"Error: {e}") -async def unlock(cfg: object, id: int, pool) -> None: +async def unlock(cfg: object, id: int, pool: object) -> None: """Sblocca un record nella tabella dei record CSV. Imposta il campo 'locked' a 0 per un dato ID. @@ -123,7 +123,7 @@ async def unlock(cfg: object, id: int, pool) -> None: Args: cfg (object): L'oggetto di configurazione contenente il nome della tabella. id (int): L'ID del record da sbloccare. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. """ async with pool.acquire() as conn: async with conn.cursor() as cur: @@ -138,14 +138,14 @@ async def unlock(cfg: object, id: int, pool) -> None: logging.error(f"Error: {e}") -async def get_matlab_cmd(cfg: object, unit: str, tool: str, pool) -> tuple: +async def get_matlab_cmd(cfg: object, unit: str, tool: str, pool: object) -> tuple: """Recupera le informazioni per l'esecuzione di un comando Matlab dal database. Args: cfg (object): L'oggetto di configurazione. unit (str): Il nome dell'unità. tool (str): Il nome dello strumento. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. Returns: tuple: Una tupla contenente le informazioni del comando Matlab, o None in caso di errore. diff --git a/utils/database/matlab_query.py b/utils/database/matlab_query.py index 23086bf..f11b5c8 100644 --- a/utils/database/matlab_query.py +++ b/utils/database/matlab_query.py @@ -3,7 +3,7 @@ import aiomysql logger = logging.getLogger(__name__) -async def get_matlab_command(cfg: object, tool: str, unit: str, pool) -> tuple: +async def get_matlab_command(cfg: object, tool: str, unit: str, pool: object) -> tuple: """Recupera le informazioni per l'esecuzione di un comando Matlab dal database. Interroga il database per ottenere i dettagli necessari all'avvio di uno script @@ -13,7 +13,7 @@ async def get_matlab_command(cfg: object, tool: str, unit: str, pool) -> tuple: cfg (object): L'oggetto di configurazione. tool (str): Il nome dello strumento. unit (str): Il nome dell'unità. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. Returns: tuple: Una tupla contenente le informazioni del comando Matlab, diff --git a/utils/database/nodes_query.py b/utils/database/nodes_query.py index e1b9dd4..baddfec 100644 --- a/utils/database/nodes_query.py +++ b/utils/database/nodes_query.py @@ -4,14 +4,14 @@ import logging logger = logging.getLogger(__name__) -async def get_nodes_type(cfg: object, tool: str, unit: str, pool) -> tuple: +async def get_nodes_type(cfg: object, tool: str, unit: str, pool: object) -> tuple: """Recupera le informazioni sui nodi (tipo, canali, input) per un dato strumento e unità. Args: cfg (object): L'oggetto di configurazione. tool (str): Il nome dello strumento. unit (str): Il nome dell'unità. - pool: Il pool di connessioni al database. + pool (object): Il pool di connessioni al database. Returns: tuple: Una tupla contenente quattro liste: canali, tipi, ain, din. diff --git a/utils/ftp/user_admin.py b/utils/ftp/user_admin.py index 54eb82d..f4e4d4e 100644 --- a/utils/ftp/user_admin.py +++ b/utils/ftp/user_admin.py @@ -10,7 +10,11 @@ from utils.database.connection import connetti_db logger = logging.getLogger(__name__) def ftp_SITE_ADDU(self: object, line: str) -> None: - """Adds a virtual user, creates their directory, and saves their details to the database. + """ + Adds a virtual user, creates their directory, and saves their details to the database. + + Args: + line (str): A string containing the username and password separated by a space. """ cfg = self.cfg try: @@ -51,7 +55,12 @@ def ftp_SITE_ADDU(self: object, line: str) -> None: print(e) def ftp_SITE_DISU(self: object, line: str) -> None: - """Removes a virtual user from the authorizer and marks them as deleted in the database.""" + """ + Removes a virtual user from the authorizer and marks them as deleted in the database. + + Args: + line (str): A string containing the username to be disabled. + """ cfg = self.cfg parms = line.split() user = os.path.basename(parms[0]) # Extract the username @@ -78,7 +87,12 @@ def ftp_SITE_DISU(self: object, line: str) -> None: print(e) def ftp_SITE_ENAU(self: object, line: str) -> None: - """Restores a virtual user by updating their status in the database and adding them back to the authorizer.""" + """ + Restores a virtual user by updating their status in the database and adding them back to the authorizer. + + Args: + line (str): A string containing the username to be enabled. + """ cfg = self.cfg parms = line.split() user = os.path.basename(parms[0]) # Extract the username @@ -117,7 +131,12 @@ def ftp_SITE_ENAU(self: object, line: str) -> None: print(e) def ftp_SITE_LSTU(self: object, line: str) -> None: - """Lists all virtual users from the database.""" + """ + Lists all virtual users from the database. + + Args: + line (str): An empty string (no arguments needed for this command). + """ cfg = self.cfg users_list = [] try: diff --git a/utils/parsers/__init__.py b/utils/parsers/__init__.py index 645f1c4..afc07fc 100644 --- a/utils/parsers/__init__.py +++ b/utils/parsers/__init__.py @@ -1 +1 @@ -"""Parser delle centraline""" +"""Parser delle centraline con le tipologie di unit e tool""" diff --git a/utils/parsers/by_name/__init__.py b/utils/parsers/by_name/__init__.py index 645f1c4..398ab54 100644 --- a/utils/parsers/by_name/__init__.py +++ b/utils/parsers/by_name/__init__.py @@ -1 +1 @@ -"""Parser delle centraline""" +"""Parser delle centraline con nomi di unit e tool""" diff --git a/utils/parsers/by_type/cr1000x_cr1000x.py b/utils/parsers/by_type/cr1000x_cr1000x.py index c6948eb..34f3417 100644 --- a/utils/parsers/by_type/cr1000x_cr1000x.py +++ b/utils/parsers/by_type/cr1000x_cr1000x.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'cr1000x_cr1000x'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/d2w_d2w.py b/utils/parsers/by_type/d2w_d2w.py index c6948eb..7c968eb 100644 --- a/utils/parsers/by_type/d2w_d2w.py +++ b/utils/parsers/by_type/d2w_d2w.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'd2w_d2w'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g201_g201.py b/utils/parsers/by_type/g201_g201.py index 1c38e53..5ea7d37 100644 --- a/utils/parsers/by_type/g201_g201.py +++ b/utils/parsers/by_type/g201_g201.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as channels_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g201_g201'. + + Questa funzione è un wrapper per `channels_main_loader` e passa il tipo + di elaborazione come "channels". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await channels_main_loader(cfg, id, pool,"channels") \ No newline at end of file diff --git a/utils/parsers/by_type/g301_g301.py b/utils/parsers/by_type/g301_g301.py index c6948eb..81ba5b7 100644 --- a/utils/parsers/by_type/g301_g301.py +++ b/utils/parsers/by_type/g301_g301.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g301_g301'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g801_iptm.py b/utils/parsers/by_type/g801_iptm.py index c6948eb..e3b0418 100644 --- a/utils/parsers/by_type/g801_iptm.py +++ b/utils/parsers/by_type/g801_iptm.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g801_iptm'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g801_loc.py b/utils/parsers/by_type/g801_loc.py index 6340601..806e555 100644 --- a/utils/parsers/by_type/g801_loc.py +++ b/utils/parsers/by_type/g801_loc.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as analog_dig_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g801_loc'. + + Questa funzione è un wrapper per `analog_dig_main_loader` e passa il tipo + di elaborazione come "analogic_digital". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await analog_dig_main_loader(cfg, id, pool, "analogic_digital") diff --git a/utils/parsers/by_type/g801_mums.py b/utils/parsers/by_type/g801_mums.py index 19d2f34..9a307a9 100644 --- a/utils/parsers/by_type/g801_mums.py +++ b/utils/parsers/by_type/g801_mums.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g801_mums'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") diff --git a/utils/parsers/by_type/g801_musa.py b/utils/parsers/by_type/g801_musa.py index ba5dc13..8c197e9 100644 --- a/utils/parsers/by_type/g801_musa.py +++ b/utils/parsers/by_type/g801_musa.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as musa_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g801_musa'. + + Questa funzione è un wrapper per `musa_main_loader` e passa il tipo + di elaborazione come "musa". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await musa_main_loader(cfg, id, pool, "musa") \ No newline at end of file diff --git a/utils/parsers/by_type/g801_mux.py b/utils/parsers/by_type/g801_mux.py index b56f111..4715419 100644 --- a/utils/parsers/by_type/g801_mux.py +++ b/utils/parsers/by_type/g801_mux.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as channels_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g801_mux'. + + Questa funzione è un wrapper per `channels_main_loader` e passa il tipo + di elaborazione come "channels". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await channels_main_loader(cfg, id, pool, "channels") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_dsas.py b/utils/parsers/by_type/g802_dsas.py index c6948eb..31f58e7 100644 --- a/utils/parsers/by_type/g802_dsas.py +++ b/utils/parsers/by_type/g802_dsas.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_dsas'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_gd.py b/utils/parsers/by_type/g802_gd.py index c90d2e5..ec3f246 100644 --- a/utils/parsers/by_type/g802_gd.py +++ b/utils/parsers/by_type/g802_gd.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as gd_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_gd'. + + Questa funzione è un wrapper per `gd_main_loader` e passa il tipo + di elaborazione come "gd". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await gd_main_loader(cfg, id, pool, "gd") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_loc.py b/utils/parsers/by_type/g802_loc.py index 70a298a..115eed2 100644 --- a/utils/parsers/by_type/g802_loc.py +++ b/utils/parsers/by_type/g802_loc.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as analog_dig_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_loc'. + + Questa funzione è un wrapper per `analog_dig_main_loader` e passa il tipo + di elaborazione come "analogic_digital". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await analog_dig_main_loader(cfg, id, pool, "analogic_digital") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_modb.py b/utils/parsers/by_type/g802_modb.py index c6948eb..1116e5d 100644 --- a/utils/parsers/by_type/g802_modb.py +++ b/utils/parsers/by_type/g802_modb.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_modb'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_mums.py b/utils/parsers/by_type/g802_mums.py index c6948eb..dfd9e1f 100644 --- a/utils/parsers/by_type/g802_mums.py +++ b/utils/parsers/by_type/g802_mums.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_mums'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/g802_mux.py b/utils/parsers/by_type/g802_mux.py index b56f111..e32f864 100644 --- a/utils/parsers/by_type/g802_mux.py +++ b/utils/parsers/by_type/g802_mux.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as channels_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'g802_mux'. + + Questa funzione è un wrapper per `channels_main_loader` e passa il tipo + di elaborazione come "channels". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await channels_main_loader(cfg, id, pool, "channels") \ No newline at end of file diff --git a/utils/parsers/by_type/gs1_gs1.py b/utils/parsers/by_type/gs1_gs1.py index 3a1d09e..99b2da4 100644 --- a/utils/parsers/by_type/gs1_gs1.py +++ b/utils/parsers/by_type/gs1_gs1.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as tlp_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'gs1_gs1'. + + Questa funzione è un wrapper per `tlp_main_loader` e passa il tipo + di elaborazione come "tlp". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await tlp_main_loader(cfg, id, pool, "tlp") \ No newline at end of file diff --git a/utils/parsers/by_type/hortus_hortus.py b/utils/parsers/by_type/hortus_hortus.py index c6948eb..c76384b 100644 --- a/utils/parsers/by_type/hortus_hortus.py +++ b/utils/parsers/by_type/hortus_hortus.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as pipe_sep_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'hortus_hortus'. + + Questa funzione è un wrapper per `pipe_sep_main_loader` e passa il tipo + di elaborazione come "pipe_separator". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await pipe_sep_main_loader(cfg, id, pool, "pipe_separator") \ No newline at end of file diff --git a/utils/parsers/by_type/isi_csv_log_vulink.py b/utils/parsers/by_type/isi_csv_log_vulink.py index e4b68f1..3f6b1d3 100644 --- a/utils/parsers/by_type/isi_csv_log_vulink.py +++ b/utils/parsers/by_type/isi_csv_log_vulink.py @@ -9,7 +9,7 @@ import logging logger = logging.getLogger(__name__) -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: UnitName, ToolNameID, ToolData = await get_data(cfg, id, pool) # Creare un file temporaneo diff --git a/utils/parsers/by_type/tlp_loc.py b/utils/parsers/by_type/tlp_loc.py index 70a298a..4ca8aa7 100644 --- a/utils/parsers/by_type/tlp_loc.py +++ b/utils/parsers/by_type/tlp_loc.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as analog_dig_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'tlp_loc'. + + Questa funzione è un wrapper per `analog_dig_main_loader` e passa il tipo + di elaborazione come "analogic_digital". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await analog_dig_main_loader(cfg, id, pool, "analogic_digital") \ No newline at end of file diff --git a/utils/parsers/by_type/tlp_tlp.py b/utils/parsers/by_type/tlp_tlp.py index 3a1d09e..3474c75 100644 --- a/utils/parsers/by_type/tlp_tlp.py +++ b/utils/parsers/by_type/tlp_tlp.py @@ -1,4 +1,15 @@ from utils.csv.loaders import main_loader as tlp_main_loader -async def main_loader(cfg: object, id: int, pool) -> None: +async def main_loader(cfg: object, id: int, pool: object) -> None: + """ + Carica ed elabora i dati CSV specifici per il tipo 'tlp_tlp'. + + Questa funzione è un wrapper per `tlp_main_loader` e passa il tipo + di elaborazione come "tlp". + + Args: + cfg (object): L'oggetto di configurazione. + id (int): L'ID del record CSV da elaborare. + pool (object): Il pool di connessioni al database. + """ await tlp_main_loader(cfg, id, pool, "tlp") \ No newline at end of file