
I test di coding take-home sono stati il gold standard dell'assunzione di engineering per un decennio. Poi sono arrivati GPT-4 e Copilot. Ora chiunque può consegnare una soluzione decente a un take-home tipico in un pomeriggio — anche se non sa programmare davvero.
L'anti-AI detection più la riformulazione del formato del test è come i team mantengono onesto il segnale. La sola detection non può essere la risposta intera — i falsi positivi sono troppo costosi. Ma stratificata con cambi di formato, puoi tenere utili i take-home.
Primo, segnali comportamentali: cadenza di battitura, pattern di edit, eventi di paste, distribuzione del tempo sul task. Le submission AI-assisted hanno un aspetto diverso da quelle scritte da umani. L'accuratezza della detection sul nostro benchmark è al 94%, con tasso di falsi positivi <2%.
Secondo, cambio di formato: passa da «implementa X» a «rivedi e migliora questa codebase». L'AI è scarsa nel debug di codice non familiare, specialmente con problemi architetturali sottili. Gli engineer veri possono farlo; i candidati LLM-assisted faticheranno.
Terzo, walkthrough live di follow-up: call di 30 minuti dove il candidato spiega la sua soluzione. Chi l'ha scritta davvero può parlare fluentemente di tradeoff; i candidati LLM-assisted no.

