Nos últimos anos, a incidência de ódio e toxicidade nas redes sociais tem crescido exponencialmente, tornando-se um fenômeno cada vez mais complexo que permeia os ambientes virtuais. Esse fenômeno, agora intrínseco às interações sociais online, tem sido alvo de análise e detecção por parte das comunidades científicas, expandindo-se para além das disciplinas tradicionais como Direito, Sociologia, Psicologia e Política, adentrando também nas áreas de Processamento de Linguagem Natural, Aprendizado de Máquina e Linguística. Nesse contexto, este estudo propõe uma abordagem para identificar comentários tóxicos ou que contenham discurso de ódio nas redes sociais, utilizando uma combinação de Tabular Deep Learning e Processamento de Linguagem Natural. O objetivo é ampliar um modelo preditivo baseado em Transformer, o FT-Transformer, para detectar com precisão satisfatória se um comentário textual, como um tweet, possui conteúdo tóxico ou de ódio. Uma parte crucial deste trabalho é a geração e processamento das características textuais. Essas características são construídas a partir de modelos pré-treinados como Sentence-Transformer e BERT (tais como BERTimbau e Albertina PT-BR), sendo depois agregadas e interpretadas por meio de um Text Embedder, ou seja, um incorporador textual de características. O ToLD-Br fora selecionado como conjunto de dados para treinamento, teste e validação do modelo proposto. O modelo alcançou uma acurácia de 94% e 96% nos conjuntos de teste e validação, respectivamente, ao utilizar o Sentence-Transformer Multilingual-E5-base. Já para o BERTimbau, a acurácia foi de 91% e 89%, enquanto para o Albertina PT-BR foi de 92% e 90%. Os resultados obtidos até o momento indicam o desempenho singular da abordagem, que pode ser aprimorada com a incorporação de novas características e técnicas de modo a melhorar sua capacidade de lidar com textos, incluindo nuances da linguagem utilizada nas redes sociais em geral. Há espaço para melhorias e desenvolvimento futuro, visando garantir sua robusta habilidade em classificar comentários contendo ódio e toxicidade, destacando-o como uma opção disruptiva em relação às abordagens mais tradicionais e comuns para lidar com dados estruturados em tabelas e classificação de textos