descrizione del lavoro
*Il candidato ideale deve aver maturato una seniority di almeno 2-4 anni nel ruolo* e deve aver conseguito il diploma o la laurea in *Informatica, Ingegneria Informatica, Matematica, Fisica* o discipline affini. Sono richiesti i seguenti requisiti:
Requisiti Fondamentali:
- *Esperienza di 2-4 anni* nello sviluppo di applicazioni *Full Stack* con *Python*.
- Conoscenza approfondita del framework *Django* per lo sviluppo backend.
- Esperienza nello sviluppo frontend con *Angular* o un altro framework JavaScript equivalente.
- Esperienza nello sviluppo, integrazione e ottimizzazione di modelli di *Machine Learning* in produzione.
- Conoscenza dei principali strumenti e tecniche per la gestione di *Large Language Models*.
Requisiti Tecnici:
- *Python*: Esperienza avanzata nello sviluppo con Python e utilizzo di librerie per il *Machine Learning* (es. *TensorFlow*, *PyTorch*, *scikit-learn*).
- *Django*: Conoscenza avanzata per la costruzione di applicazioni web robuste, con particolare attenzione alla gestione del database, autenticazione e creazione di API RESTful.
- *Angular*: Esperienza nello sviluppo di interfacce utente dinamiche e responsive con *Angular* (o framework equivalenti).
- *Data Pipeline*: Capacità di progettare e implementare pipeline per il preprocessing di grandi quantità di dati, con esperienza in database *SQL/NoSQL* (es. *PostgreSQL*, *MongoDB*).
- *Cloud & DevOps*: Esperienza nel deployment di applicazioni e modelli ML in *cloud* (AWS, GCP, Azure) e gestione di infrastrutture *CI/CD* con *Docker*, *Kubernetes*.
- *Microservizi*: Conoscenza delle architetture a microservizi e di sistemi distribuiti per creare soluzioni scalabili.
- *Sicurezza*: Conoscenza di best practices per la sicurezza delle applicazioni web e gestione sicura delle API (es. OAuth2, JWT, SSL/TLS).
Altri Requisiti valorizzanti la Candidatura:
- Esperienza con strumenti di elaborazione dati distribuiti come *Apache Kafka* o *Apache Airflow*.
- Familiarità con l'integrazione di modelli ML tramite API o *GraphQL*.
- Conoscenza dei principi *MLOps* per il monitoraggio e la gestione di modelli in produzione.
Competenze Trasversali:
- *Lavoro in team*: Capacità di collaborare con team multidisciplinari (data scientist, devops, product manager).
- *Gestione del progetto*: Esperienza in ambienti *Agile/Scrum* e uso di strumenti come *Jira* o *Trello*.
- *Problem solving*: Abilità nel risolvere problemi complessi, soprattutto in contesti legati a dati e performance.
- *Comunicazione*: Capacità di spiegare concetti tecnici complessi in modo chiaro e comprensibile, anche a figure non tecniche.
- *Apprendimento continuo*: Propensione a restare aggiornato sulle ultime tecnologie e a migliorare costantemente le proprie competenze.
Contratto di lavoro: Tempo indeterminato
Benefit:
- Buoni pasto
- Computer aziendale
Disponibilità:
* Dal lunedì al venerdì
Retribuzione supplementare:
- Quattordicesima
- Tredicesima
Esperienza:
* full stack developer: 1 anno (Preferenziale)%{{advertiserId}}% %%{{category}}%%