-
Notifications
You must be signed in to change notification settings - Fork 0
/
grad_desc.m
31 lines (26 loc) · 1.06 KB
/
grad_desc.m
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
% Gradiente descendente, learn_rate = Taxa de importância para o gradiente.
% n_iter = Núm. iterações.
% delta = Intervalo para diferença finita central.
function X = grad_desc(learn_rate, n_iter, delta, Dim)
X = 2*rand(1,Dim); % Inicialização aleatória da observação inicial.
diff = zeros(Dim,n_iter); % Inicialização do vetor de derivadas.
for i = 1:n_iter
for k = 1:Dim
P = zeros(1,Dim);
P(k) = 1;
diff(k,i) = -learn_rate*gradiente(X-P*delta, X+P*delta, delta); % Calcula a derivada no ponto X.
X(1,k) = X(1,k)+diff(k,i); % Atualiza o ponto X.
end
J(i) = custo(X);
end
% Plota a curva da derivada, normalizada entre 0 e 1.
plot(J,'b'); grid on;
end
% Função de custo, X = Observação com n dimensões.
function res = custo(X)
res = (X(1).^2) + (X(2).^3) - 10;
end
% Gradiente, X1, X2 = Observações com n dimensões. delta = Intervalo para diferença finita.
function res = gradiente(X1, X2, delta)
res = (custo(X2) - custo(X1))/(2*delta);
end