In questo paragrafo si cercherà di spiegare teoricamente come funzionano gli algoritmi genetici, benchè una trattazione rigorosa risulti difficile e complessa dal punto di vista analitico; complessità che deriva dai meccanismi che costituiscono la struttura algoritmica stessa.
Per i tradizionali metodi di ottimizzazione deterministica, come il metodo del gradiente o il metodo di Newton, è naturale che la convergenza delle soluzioni verso l'ottimo sia sorretta e guidata da risultati teorici, che ne assicurano la convergenza stessa e ne specificano la velocità o l'ordine con cui si realizza. Nel caso dei metodi di ottimizzazione probabilistica il supporto teorico viene a mancare, in quanto il comportamento dell'algoritmo non è deterministico, pertanto non possono venir enunciati e dimostrati teroremi che ne descrivano il comportamento. Si possono tuttavia enunciare risultati riguardo la convergenza in media.
Nel caso degli algoritmi genetici, la convergenza verso la soluzione ottima non trova facilmente giustificazione teorica in quanto la transizione da una generazione a un'altra coinvolge nel caso più semplice tre operatori probabilistici, selezione, cross over e mutazione, che rendono la struttura esageratamente complicata sul piano teorico. Inoltre ogni operatore probabilistico citato può venir invocato dalla procedura con parametri di controllo diversi da iterazione a iterazione, influenzando in modo determinante il comportamento in convergenza.
Pertanto per gli algoritmi genetici non possono venir enunciati teoremi di convergenza in senso stretto, tuttavia si riportano risultati che dimostrano l'efficienza degli algortimi stessi in un ampia varietà di applicazioini, seppur non si possano considerare di validità generale.
Per comodità ci si riferirà a un generico algoritmo genetico di ottimizzazione, con una popolazione di individui codificati in stringhe di lunghezza .
(5.1.1) |
(5.1.2) |
(5.1.3) |