Estudamos o problema de minimização em uma classe de funções possivelmente não convexas e não diferenciáveis, dadas pela diferença de duas funções convexas. Abordamos esse problema por meio de três métodos estabelecidos na literatura: o Difference of Convex Algorithm (DCA), proposto por Tao and Souad (1986); o Boosted Difference of Convex Algorithm (BDCA), formulado por Aragón Artacho and Vuong (2020), que considera uma busca monótona em cada iterada a partir da solução encontrada pelo DCA; e o mais recente Non-monotone Boosted Difference of Convex Algorithm, proposto por Fereira, Santos e Souza (2024), que considera uma busca não monótona no BDCA, habilitando um possível crescimento na função objetivo controlado por um parâmetro. Além disso, propomos uma abordagem inexata para o nmBDCA e, sob hipóteses razoáveis, recuperamos os resultados de convergência e complexidade da sua versão exata. Realizamos alguns experimentos numéricos para ilustrar os algoritmos.