llama : merge llama_internal.h into llama.h

Hide it behind an #ifdef
pull/947/head master-9190e8e
Georgi Gerganov 1 year ago
parent c85980acd0
commit 9190e8eac8
No known key found for this signature in database
GPG Key ID: 449E073F9DC10735

@ -253,7 +253,6 @@ endif()
add_library(llama
llama.cpp
llama.h
llama_internal.h
llama_util.h)
target_include_directories(llama PUBLIC .)

@ -142,7 +142,7 @@ default: main quantize perplexity embedding
ggml.o: ggml.c ggml.h
$(CC) $(CFLAGS) -c ggml.c -o ggml.o
llama.o: llama.cpp llama.h llama_util.h llama_internal.h
llama.o: llama.cpp llama.h llama_util.h
$(CXX) $(CXXFLAGS) -c llama.cpp -o llama.o
common.o: examples/common.cpp examples/common.h

@ -1,6 +1,7 @@
#include "ggml.h"
#define LLAMA_API_INTERNAL
#include "llama.h"
#include "llama_internal.h"
#include <algorithm>
#include <cassert>

@ -5,7 +5,6 @@
#include "llama_util.h"
#include "llama.h"
#include "llama_internal.h"
#include "ggml.h"

@ -179,4 +179,15 @@ extern "C" {
}
#endif
// Internal API to be implemented by llama.cpp and used by tests/benchmarks only
#ifdef LLAMA_API_INTERNAL
#include <vector>
#include <string>
struct ggml_tensor;
std::vector<std::pair<std::string, struct ggml_tensor *>>& llama_internal_get_tensor_map(struct llama_context * ctx);
#endif
#endif // LLAMA_H

@ -1,12 +0,0 @@
// Internal header to be included by llama.cpp and tests/benchmarks only.
#ifndef LLAMA_INTERNAL_H
#define LLAMA_INTERNAL_H
#include <vector>
#include <string>
struct ggml_tensor;
std::vector<std::pair<std::string, struct ggml_tensor *>>& llama_internal_get_tensor_map(struct llama_context * ctx);
#endif // LLAMA_INTERNAL_H
Loading…
Cancel
Save