Neste trabalho, estudamos resultados de convergência dos métodos clássicos do gradiente e do subgradiente, além de uma variação do método subgradiente com busca linear não monótona para funções convexas Lipschitz. O método do gradiente é um método de descida e os tamanhos de passo são escolhidos de forma exata e inexata com busca linear. O método subgradiente não é necessariamente um método de descida e os tamanhos de passo estudados são pré-fixados, não sendo escolhidos via busca linear. Assim, também estudamos um método subgradiente com busca linear não monótona que, apesar de não ser um método de descida, o possível aumento nos valores da função é controlado e os tamanhos de passo são escolhidos de forma adaptativa. Apresentamos ilustrações numéricas comparando a eficácia dos métodos.