GEM Global - Đối tác đào tạo tin cậy của các doanh nghiệp
Là một thành viên của tổ chức đào tạo Smart Train, Học Viện Quản Lý GEM (GEM Global) là đối tác đào tạo tin cậy về Quản lý và Lãnh đạo của các Doanh nghiệp tại Việt Nam.
Càng thông minh, AI càng dễ khiến con người lầm tưởng. Nó có thể mô tả chi tiết một sự kiện… chưa từng xảy ra. Hiện tượng này được gọi là “ảo giác AI”, khi mô hình ngôn ngữ tự sinh ra thông tin sai lệch nhưng nghe hợp lý đến kỳ lạ. Trong môi trường doanh nghiệp, ảo giác AI là ranh giới giữa sáng tạo và sai sự thật.
Ảo giác AI là gì?
“Ảo giác AI” (AI Hallucination) là hiện tượng khi một hệ thống trí tuệ nhân tạo, đặc biệt là các mô hình ngôn ngữ lớn (Large Language Model – LLM) như ChatGPT, Gemini hay Claude, tạo ra thông tin sai lệch, không có thật hoặc không được kiểm chứng, nhưng lại được trình bày với giọng điệu tự tin, logic và thuyết phục như thể đó là sự thật.
Điều khiến ảo giác AI trở nên nguy hiểm là ở chỗ: AI không có ý định “nói dối”, mà đơn giản là nó không thực sự hiểu nội dung mà mình đang nói. Các mô hình tạo sinh được thiết kế để dự đoán từ hoặc câu tiếp theo dựa trên xác suất trong dữ liệu huấn luyện, chứ không phải để xác minh tính chính xác của thông tin. Khi gặp những câu hỏi hoặc tình huống nằm ngoài phạm vi dữ liệu đã học, AI có thể “tự tưởng tượng” ra một câu trả lời nghe rất hợp lý, chính là lúc “ảo giác” xuất hiện.
Ví dụ, khi được hỏi về một nghiên cứu chưa từng tồn tại hoặc một chuyên gia không có thật, AI có thể “bịa” ra tên tác giả, trích dẫn và kết quả nghiên cứu hoàn chỉnh, khiến người dùng dễ tin rằng đó là thông tin chính xác. Đây không phải lỗi hệ thống, mà là hệ quả tự nhiên của cách AI hoạt động, dự đoán, chứ không hiểu.
Trong lĩnh vực doanh nghiệp, ảo giác AI không chỉ gây sai lệch thông tin mà còn tiềm ẩn rủi ro về uy tín và pháp lý, nếu tổ chức sử dụng nội dung do AI tạo ra mà không kiểm chứng kỹ lưỡng. Chính vì vậy, hiểu đúng bản chất của ảo giác AI là bước đầu tiên để các nhà lãnh đạo ứng dụng AI một cách an toàn, có trách nhiệm và hiệu quả.
Vì sao hiện tượng ảo giác AI xảy ra?
Dù được xây dựng trên nền tảng công nghệ tiên tiến nhất, AI vẫn có thể “bịa chuyện” một cách tự tin. Nguyên nhân của hiện tượng này không chỉ nằm ở dữ liệu hay thuật toán, mà còn đến từ cách thức mà trí tuệ nhân tạo “suy nghĩ” và tạo ra ngôn ngữ. Dưới đây là ba nhóm nguyên nhân chính lý giải vì sao “ảo giác AI” xảy ra.
BẢN CHẤT MÔ HÌNH VÀ CÁCH HOẠT ĐỘNG CỦA AI
Khác với con người, AI không hiểu thế giới theo nghĩa “ý thức” hay “nhận thức thực tại”. Các mô hình ngôn ngữ lớn (Large Language Models – LLM) như ChatGPT, Claude hay Gemini không biết sự thật là gì, chúng chỉ dự đoán từ hoặc câu tiếp theo có khả năng xuất hiện cao nhất dựa trên hàng tỷ mẫu ngôn ngữ đã được huấn luyện.
Vì vậy, khi người dùng đặt câu hỏi, AI không “tra cứu thông tin thật” mà ước lượng câu trả lời hợp lý nhất về mặt ngôn ngữ. Nếu câu hỏi nằm ngoài phạm vi hiểu biết, hoặc dữ liệu huấn luyện không đủ, AI sẽ “tự điền” phần còn thiếu để hoàn thiện câu trả lời và chính lúc đó, ảo giác xuất hiện.
Ví dụ: Khi được hỏi “Ai là người đầu tiên đặt chân lên sao Hỏa?”, một mô hình có thể bịa ra tên, năm và chi tiết của một “phi hành gia” không tồn tại, vì nó cố gắng tạo ra câu trả lời nghe hợp lý thay vì nói “Tôi không biết”.
Nói cách khác, AI không nói dối nhưng nó cũng không biết mình đang sai. Đây là giới hạn căn bản của mô hình dự đoán ngôn ngữ mà hầu hết các hệ thống AI hiện nay vẫn đang sử dụng.
DỮ LIỆU HUẤN LUYỆN THIẾU SÓT HOẶC THIÊN LỆCH
AI chỉ thông minh trong phạm vi dữ liệu mà nó được “nuôi”. Nếu dữ liệu huấn luyện chứa thông tin lỗi, thiếu tính xác thực hoặc thiên lệch, thì ảo giác gần như là điều không thể tránh khỏi.
Các mô hình hiện nay được huấn luyện trên kho dữ liệu khổng lồ từ Internet, nơi có cả kiến thức chính thống lẫn tin giả, thông tin không kiểm chứng, hoặc quan điểm chủ quan. Khi AI học từ môi trường này, nó học cả đúng lẫn sai, và đôi khi không thể phân biệt được ranh giới giữa hai điều đó.
Bên cạnh đó, dữ liệu huấn luyện có thể thiếu cân bằng ngôn ngữ, vùng địa lý hoặc góc nhìn, khiến AI đưa ra kết quả thiên lệch theo văn hóa hoặc hệ quy chiếu nhất định, một dạng “ảo giác xã hội” mà nhiều tổ chức đang cố gắng khắc phục.
THIẾU KIỂM SOÁT TỪ NGƯỜI DÙNG VÀ HỆ THỐNG
Ngay cả khi mô hình được huấn luyện tốt, ảo giác AI vẫn có thể xuất hiện nếu người dùng tương tác không đúng cách. Các câu hỏi mơ hồ, yêu cầu quá sáng tạo hoặc nằm ngoài năng lực mô hình (ví dụ: “viết lại lịch sử Việt Nam theo phong cách giả tưởng”) khiến AI tự suy diễn hoặc tưởng tượng để hoàn thành nhiệm vụ.
Ngoài ra, một yếu tố quan trọng khác là cách AI được “khen thưởng” trong quá trình huấn luyện. Nhiều hệ thống hiện nay ưu tiên câu trả lời nghe “mạch lạc, tự tin” hơn là câu trả lời “chưa chắc chắn”. Điều này vô tình khiến mô hình thà đoán còn hơn im lặng, dẫn đến việc nó tạo ra nội dung sai nhưng trông rất đáng tin.
Ví dụ, trong thử nghiệm nội bộ của OpenAI, nhóm nghiên cứu nhận thấy ChatGPT tăng độ tự tin khi sai, nếu hệ thống đánh giá chỉ dựa trên mức độ “trôi chảy” của câu trả lời thay vì độ chính xác. Chính vì vậy, các hãng AI hàng đầu hiện nay đang phải điều chỉnh lại cơ chế đánh giá để mô hình biết cách “nói không” khi không chắc chắn.
Tóm lại, ảo giác AI không đơn thuần là lỗi, mà là kết quả tất yếu của cách AI được xây dựng, huấn luyện và sử dụng. Hiểu rõ ba nguyên nhân này giúp doanh nghiệp nhìn nhận đúng bản chất: muốn kiểm soát ảo giác, không chỉ cần công nghệ tốt mà còn cần con người hiểu cách AI “nghĩ” và giới hạn của nó.
Ví dụ & biểu hiện của ảo giác AI trong thực tế
Dưới đây là những ví dụ điển hình minh họa cho cách AI có thể “bịa chuyện như thật”.
KHI AI NHÌN NHẦM – ẢO GIÁC TRONG NHẬN DẠNG HÌNH ẢNH
Một trong những ví dụ nổi tiếng nhất là khi một hệ thống AI dùng cho nhận dạng hình ảnh nhầm lẫn chiếc bánh muffin việt quất thành chó chihuahua. Cả hai đều có hình tròn, tông màu nâu và những “đốm xanh” (việt quất) trông giống mắt chó.
Hiện tượng này cho thấy: AI không “nhìn” như con người, mà chỉ so sánh các đặc trưng hình học và màu sắc trong dữ liệu. Nếu mô hình chưa từng thấy đủ ví dụ tương phản hoặc dữ liệu huấn luyện chưa đa dạng, nó sẽ “tưởng tượng” sai.
Đây chính là một dạng ảo giác thị giác của AI, và trong những ứng dụng nhạy cảm như giám sát an ninh, chẩn đoán y khoa hay xe tự lái, chỉ một sai lệch nhỏ cũng có thể gây hậu quả lớn.
KHI AI NÓI SAI – ẢO GIÁC TRONG MÔ HÌNH NGÔN NGỮ
Các mô hình ngôn ngữ lớn (LLM) như ChatGPT, Gemini hay Claude thường được ca ngợi về khả năng viết và trả lời trôi chảy. Tuy nhiên, chính sự “trôi chảy” đó đôi khi che giấu một sự thật nguy hiểm: AI có thể bịa chuyện hoàn toàn.
Một số ví dụ cụ thể:
Khi được yêu cầu trích dẫn một nghiên cứu khoa học, AI có thể tự tạo ra tên tác giả, năm xuất bản và tiêu đề bài báo, dù tài liệu đó chưa từng tồn tại.
Trong môi trường học thuật, có trường hợp sinh viên dùng AI viết luận và bị phát hiện vì tài liệu tham khảo hoàn toàn hư cấu.
Trong truyền thông, AI có thể “dựng” lại sự kiện, địa danh hay phát ngôn sai lệch của người nổi tiếng.
Điểm đáng chú ý là AI không cố ý lừa dối, mà đơn giản là nó không biết mình sai, vì cơ chế của mô hình dựa trên xác suất chứ không phải sự thật.
KHI AI BỊA NỘI DUNG – RỦI RO VỚI DOANH NGHIỆP VÀ MARKETING
Với sự phổ biến của các công cụ AI tạo sinh như ChatGPT, Jasper, Copilot hay Gemini, nhiều doanh nghiệp đã sử dụng AI để viết bài marketing, bài PR hoặc nội dung sản phẩm. Dù tiết kiệm thời gian, nhưng nếu không có quy trình kiểm duyệt, rất dễ rơi vào tình huống “ảo giác AI”.
Một vài biểu hiện thường gặp:
AI viết bài với giọng điệu chuyên nghiệp, trích dẫn thuyết phục, nhưng dẫn nguồn sai hoặc tạo ra số liệu không có thật.
Báo cáo nội bộ hoặc bài phân tích thị trường do AI hỗ trợ có thể chứa dữ liệu cũ, không kiểm chứng hoặc suy luận sai.
Email bán hàng hoặc quảng cáo có thể dùng thông tin sản phẩm không chính xác, khiến doanh nghiệp gặp rủi ro về uy tín thương hiệu hoặc pháp lý.
Chẳng hạn, một công ty tại Mỹ từng dùng AI để tổng hợp thông tin cho bản tin nội bộ, nhưng sau đó phải xin lỗi công khai vì AI đã “chế” ra lời phát biểu của CEO trong một hội nghị… chưa từng diễn ra.
ẢO GIÁC TRONG RA QUYẾT ĐỊNH VÀ TỰ ĐỘNG HÓA
Không chỉ xuất hiện trong nội dung, ảo giác AI còn có thể len vào quy trình ra quyết định doanh nghiệp. Khi một hệ thống AI phân tích dữ liệu để dự đoán xu hướng thị trường hoặc chấm điểm tín dụng, nếu dữ liệu đầu vào không chính xác hoặc mô hình hiểu sai ngữ cảnh, kết quả dự đoán có thể hoàn toàn sai lệch. Điều nguy hiểm là hệ thống vẫn trình bày kết quả với độ tin cậy cao, khiến nhà quản trị dễ tin tưởng tuyệt đối.
Từ những ví dụ trên, có thể thấy ảo giác AI là một hiện tượng phổ biến, khó thể loại bỏ hoàn toàn, chỉ có thể giảm thiểu và kiểm soát thông qua quy trình, dữ liệu và yếu tố con người. Do đó, thay vì né tránh, doanh nghiệp cần học cách sử dụng AI có trách nhiệm, hiểu rõ giới hạn của nó và luôn giữ “con mắt người” trong vòng kiểm duyệt.
Hậu quả & rủi ro khi ảo giác AI xảy ra trong doanh nghiệp
Hiện tượng ảo giác AI (AI hallucination) không chỉ là lỗi kỹ thuật, mà là rủi ro thực tế có thể gây tổn thất nghiêm trọng cho doanh nghiệp nếu không được kiểm soát. Khi AI tự tin tạo ra thông tin sai, dù chỉ một lần, tác động có thể lan rộng trên nhiều khía cạnh: thương hiệu, pháp lý, vận hành và niềm tin khách hàng.
MẤT UY TÍN THƯƠNG HIỆU VÀ NIỀM TIN KHÁCH HÀNG
Một trong những rủi ro lớn nhất là mất uy tín thương hiệu.
Khi các công cụ AI tạo nội dung (như chatbot, hệ thống trả lời tự động, hay nền tảng marketing) vô tình cung cấp thông tin sai, khách hàng hoặc đối tác có thể cảm thấy bị đánh lừa dù doanh nghiệp không cố ý.
Một ví dụ thực tế là một số doanh nghiệp quốc tế từng phải xin lỗi công khai khi chatbot AI của họ “bịa” ra số liệu hoặc trích dẫn giả trong chiến dịch truyền thông. Trong kỷ nguyên số, sự thật có thể được kiểm chứng chỉ sau vài giây, nên chỉ một sai sót nhỏ từ AI cũng có thể phá vỡ niềm tin được xây dựng qua nhiều năm.
NGUY CƠ VI PHẠM PHÁP LUẬT VÀ QUY ĐỊNH CHUYÊN NGÀNH
Trong các lĩnh vực nhạy cảm như y tế, pháp lý, tài chính, hậu quả của ảo giác AI có thể vượt xa phạm vi uy tín.
Điều đáng nói là AI không chịu trách nhiệm pháp lý, doanh nghiệp mới là chủ thể phải đứng ra giải trình. Vì vậy, mỗi tổ chức cần xem việc quản trị rủi ro AI như một phần tất yếu trong chiến lược tuân thủ và đạo đức công nghệ.
RỦI RO QUẢN TRỊ: KHI DOANH NGHIỆP ĐẶT NIỀM TIN MÙ QUÁNG VÀO AI
Một nguy cơ tinh vi hơn nhưng không kém phần nghiêm trọng là “ảo giác niềm tin” – doanh nghiệp tin tưởng tuyệt đối vào AI mà quên đi yếu tố con người. AI được thiết kế để hỗ trợ, chứ không phải thay thế hoàn toàn tư duy phản biện. Khi các nhà quản trị để AI tự ra quyết định hoặc tự động hóa quy trình mà không kiểm tra chéo, rủi ro lan truyền thông tin sai trong toàn hệ thống là rất cao.
Theo các chuyên gia của VinBigData, “AI hallucination không chỉ là lỗi công nghệ, mà là bài toán quản trị nhận thức – làm sao để con người biết khi nào nên tin và khi nào nên nghi ngờ AI.”
CHI PHÍ KHẮC PHỤC VÀ TỔN THẤT VẬN HÀNH
Một khi ảo giác AI xảy ra, chi phí khắc phục thường không nhỏ. Doanh nghiệp phải dành nguồn lực để rà soát, hiệu chỉnh mô hình, tái huấn luyện dữ liệu, hoặc thậm chí khôi phục hình ảnh thương hiệu. Với các doanh nghiệp sử dụng AI quy mô lớn, chỉ một lần “AI bịa chuyện” có thể dẫn đến chuỗi sai sót liên hoàn, ảnh hưởng tới nhiều bộ phận: từ marketing, PR đến pháp lý và nhân sự.
Ảo giác AI không phải là lỗi hiếm, mà là một rủi ro tất yếu nếu doanh nghiệp không có chiến lược kiểm soát, kiểm chứng và đào tạo nhân sự sử dụng AI đúng cách. Mỗi sai sót nhỏ từ hệ thống có thể trở thành tác nhân lớn gây tổn hại đến uy tín, pháp lý và hiệu suất tổ chức. Vì vậy, điều quan trọng không chỉ là sử dụng AI, mà là biết quản trị AI một cách có trách nhiệm và minh bạch.
Cách doanh nghiệp nên đối phó và kiểm soát ảo giác AI
Hiện tượng “ảo giác AI” là điều không thể tránh khỏi hoàn toàn, ngay cả với những mô hình tiên tiến nhất. Tuy nhiên, doanh nghiệp hoàn toàn có thể giảm thiểu rủi ro này thông qua chiến lược quản trị đúng đắn, kết hợp giữa con người, quy trình và công nghệ. Dưới đây là bốn hướng hành động cốt lõi mà các tổ chức hàng đầu đang áp dụng.
THIẾT LẬP QUY TRÌNH KIỂM SOÁT & CON NGƯỜI THAM GIA
AI có thể mang lại tốc độ và hiệu suất vượt trội, nhưng con người vẫn phải là người cầm lái cuối cùng.
Trong mọi hệ thống ứng dụng AI của doanh nghiệp, từ sản xuất nội dung, phân tích dữ liệu đến hỗ trợ ra quyết định, cần có quy trình “Human-in-the-loop” (HITL), tức là luôn có con người kiểm duyệt ở bước cuối cùng trước khi kết quả được công bố hoặc hành động được thực thi.
Điều này đảm bảo rằng AI không tự động xuất bản, tự gửi thông tin hay tự ra quyết định quan trọng mà không có sự giám sát.
Doanh nghiệp cũng nên xác định rõ ranh giới giữa vai trò của AI và chuyên gia:
AI được dùng để gợi ý, tổng hợp hoặc hỗ trợ xử lý dữ liệu nhanh chóng.
Con người chịu trách nhiệm đánh giá, xác minh và ra quyết định cuối cùng.
Khi quy trình kiểm soát này được thiết lập chặt chẽ, doanh nghiệp không chỉ hạn chế được sai lệch do “ảo giác AI” mà còn biến công nghệ thành công cụ mở rộng năng lực con người, thay vì thay thế tư duy và trách nhiệm của họ.
ĐẢM BẢO DỮ LIỆU ĐÀO TẠO VÀ NGUỒN THAM CHIẾU CHẤT LƯỢNG
AI chỉ chính xác khi dữ liệu của nó đáng tin cậy.
Muốn hạn chế ảo giác, doanh nghiệp cần đầu tư xây dựng kho dữ liệu sạch, đa dạng và phản ánh đúng thực tế vận hành. Khi dữ liệu đầu vào sai lệch, lỗi thời hoặc thiếu cân bằng, mô hình rất dễ tạo ra thông tin không có thật, hay còn gọi là “bịa chuyện hợp lý”.
Để khắc phục, doanh nghiệp nên:
Chuẩn hóa và kiểm định dữ liệu nội bộ, đảm bảo tính chính xác, cập nhật và thống nhất giữa các bộ phận.
Kết hợp nguồn dữ liệu mở chất lượng cao, chẳng hạn dữ liệu nghiên cứu, báo cáo khoa học hoặc nguồn được xác thực rõ ràng.
Đối chiếu liên tục với dữ liệu thực tế từ hệ thống CRM, báo cáo kinh doanh hay phản hồi khách hàng, đặc biệt khi AI được dùng để sinh nội dung hoặc tư vấn.
Một mô hình AI được nuôi dưỡng bằng dữ liệu tốt sẽ không chỉ giảm nguy cơ ảo giác, mà còn phản ánh trung thực và có giá trị thực tiễn hơn cho doanh nghiệp.
XÂY DỰNG “VĂN HÓA” SỬ DỤNG AI CÓ TRÁCH NHIỆM
Để kiểm soát “ảo giác AI”, doanh nghiệp cần bắt đầu từ văn hóa tổ chức, nơi mọi thành viên đều hiểu rằng AI là công cụ hỗ trợ, không phải người phán xử.
Điều quan trọng là đào tạo đội ngũ nhận biết rủi ro của AI: rằng các mô hình có thể đưa ra kết quả sai, thiếu căn cứ hoặc vượt ngoài ngữ cảnh. Nhân viên phải biết đối chiếu, xác minh và chịu trách nhiệm với đầu ra của AI như với sản phẩm do chính mình tạo ra.
Song song đó, doanh nghiệp cần thiết lập quy trình kiểm soát chất lượng nội dung AI trong hệ thống quản trị nội bộ. Khi việc rà soát, kiểm chứng và ghi nhận sai lệch trở thành một phần của thói quen làm việc, tổ chức sẽ dần hình thành văn hóa “AI có trách nhiệm”, nơi công nghệ được sử dụng hiệu quả nhưng vẫn đảm bảo tính chính xác, minh bạch và đạo đức nghề nghiệp.
SỬ DỤNG VÀ PHÁT TRIỂN KỸ THUẬT GIẢM THIỂU ẢO GIÁC
Song song với việc kiểm soát bằng con người, các giải pháp kỹ thuật cũng đóng vai trò then chốt trong việc giảm thiểu hiện tượng “ảo giác” của AI. Những mô hình hiện đại ngày nay được tinh chỉnh để nhận diện khi nào chúng không chắc chắn, từ đó có thể phản hồi “Tôi không biết” thay vì cố gắng đưa ra câu trả lời sai.
Một số doanh nghiệp đang áp dụng cơ chế đánh giá chéo giữa nhiều mô hình (cross-validation) để xác thực thông tin, hoặc tối ưu quy trình huấn luyện (fine-tuning) với bộ dữ liệu được giám sát chặt chẽ hơn, giúp AI học cách phân biệt giữa sự thật và suy diễn.
Ngoài ra, việc giới hạn phạm vi ứng dụng AI trong các tình huống đòi hỏi độ chính xác tuyệt đối, chẳng hạn như tư vấn y khoa, pháp lý, tài chính là bước cần thiết để giảm rủi ro.
Khi được vận hành cùng những biện pháp kỹ thuật này, hệ thống AI không chỉ đáng tin cậy hơn mà còn phản ánh cách doanh nghiệp chủ động kiểm soát và chịu trách nhiệm với công nghệ mà mình sử dụng.
“Ảo giác AI” không chỉ là lỗi kỹ thuật mà là hệ quả tự nhiên của cách máy học suy luận từ dữ liệu, thay vì hiểu bản chất sự thật. Điều này khiến doanh nghiệp phải đối mặt với rủi ro thông tin sai lệch, nếu không có cơ chế kiểm soát và con người giám sát.
Với nhà lãnh đạo, điều quan trọng không phải là tránh AI, mà là học cách quản trị nó thông minh hơn, thiết lập quy trình kiểm duyệt, chuẩn hóa dữ liệu và nâng cao năng lực đội ngũ. Khi AI được đặt trong khuôn khổ quản trị minh bạch và có trách nhiệm, nó sẽ trở thành trợ lý chiến lược đáng tin cậy, thay vì mối lo tiềm ẩn.
Hãy bắt đầu bằng những bước nhỏ: kiểm tra, xác minh và đào tạo con người sử dụng AI đúng cách, vì trong kỷ nguyên AI, độ chính xác và sự thật sẽ là lợi thế cạnh tranh lớn nhất.
Hiện Ông là Trưởng bộ môn Thị trường tài chính tại khoa Ngân Hàng, Đại học Kinh tế TP. Hồ Chí Minh. Ông Huân làm công tác chuyên gia tư vấn đầy kinh nghiệm về phát triển công nghệ và chuyển đổi số, quy hoạch kinh tế cho nhiều tỉnh thành và chính phủ Việt Nam, như Đồng Nai, Đồng Tháp, Vĩnh Long, Đak Nông, TP. Hồ Chí Minh…
Hiện Ông Huân là Founder & CEO của Promete – Đối tác chiến lược của GEM Global, chuyên tư vấn và thiết kế AI riêng cho từng Doanh nghiệp.
Ông đồng thời là cố vấn cấp cao cho một số doanh nghiệp công nghệ và ứng dụng blockchain, đã đạt được sự chú ý trong khu vực và thế giới như Tokenplay và Unigame. Hơn nữa, ông Huân còn là cố vấn chiến lược cho công ty Phongsupthaavy, một trong những công ty lớn nhất tại Lào về xây dựng sàn giao dịch tiền điện tử và tiền kỹ thuật số.
Trong các hoạt động học thuật, ông rất tích cực công bố các nghiên cứu dựa trên bằng chứng trên các tạp chí quốc tế uy tín như Technology Forecasting and Social Change, Research in International Business and Finance, Apply Economics Letter…
Ông. Phạm Ngọc Hoàng Thanh
Giám Đốc Đào Tạo Chương Trình Tài Chính – Đầu Tư
Là người sáng lập và hiện là Giám đốc Điều hành Học viện Smart Train, tổ chức chuyên sâu đào tạo các chứng chỉ nghề nghiệp quốc tế như ACCA, CMA, CFA, CIA, CTP, FPAC và IFRS. Đồng thời, Ông Thanh đang là Ủy viên BCH CLB Kế Toán Trưởng Việt Nam (VCCA), Ủy viên BCH Hội Kế toán TP.HCM (HAA).
Ông Thanh tốt nghiệp Thạc sỹ chuyên ngành Tài Chính tại ĐH Webster, Hoa Kỳ. Ủy viên BCH CLB Kế Toán Trưởng Việt Nam (VCCA), Ủy viên BCH Hội Kế toán TP.HCM (HAA). Ông có hơn 20 năm kinh nghiệm làm việc trong lĩnh vực tư vấn, kiểm toán và đào tạo kế toán – tài chính tại các doanh nghiệp lớn như Shell, EY, Lạc Việt, Asian Services,…
Bên cạnh đó, ông có nhiều năm là giảng viên thỉnh giảng về kế toán – tài chính cho các trường ĐH trong và ngoài nước như Troy University, Maatricht, Benedictine University, ĐH Hoa Sen, ĐH Tôn Đức Thắng,…
Bà. Bùi Thị Hòa (Anna Bùi)
Tư Vấn Đào Tạo Doanh Nghiệp
Bà có cơ hội làm việc đa dạng từ tổ chức phi chính phủ đến tập đoàn lớn và công ty đa quốc gia. Với hơn 7 năm kinh nghiệm trong các lĩnh vực phát triển doanh nghiệp, đào tạo và xây dựng hệ sinh thái đổi mới sáng tạo.
Tốt nghiệp Thạc sĩ Quản trị kinh doanh Đại học Kinh tế TP.HCM, cử nhân ngành luật học trường Đại học Luật TP.HCM.
Từng giữ vai trò Giám đốc chương trình Youth Empowerment Network – 1 trong 4 chương trình trọng điểm tại Startup Vietnam Foundation, trực tiếp tư vấn, tổ chức các chương trình nâng cao năng lực, kết nối chuyên gia và nguồn lực cho Doanh nghiệp khởi nghiệp, sinh viên và các tổ chức hỗ trợ khởi nghiệp.
Tham gia xây dựng và triển khai các chương trình nâng cao năng lực đội ngũ cán bộ làm công tác hỗ trợ khởi nghiệp, đổi mới sáng tạo cho doanh nghiệp, trường đại học và cơ quan quản lý nhà nước tại các tỉnh như Đồng Tháp, Bà Rịa Vũng Tàu, Đắk Lắk, Quảng Ngãi, Bến Tre,…
Bà. Lê Thị Ngọc Trâm
Trưởng Bộ Phận Truyền Thông & Marketing
Bà có nhiều năm kinh nghiệm trong lĩnh vực Marketing, Truyền thông & Quảng bá thương hiệu, cùng 6 năm làm việc trong các ngành Tài chính – Ngân hàng, Giáo dục, F&B…, bà Trâm đã triển khai nhiều chiến dịch hiệu quả, giúp nâng cao nhận diện thương hiệu và kết nối cộng đồng.
Bà Trâm từng giữ vai trò Trưởng Dự án của nhiều dự án phi lợi nhuận dành cho nữ giới và thanh thiếu niên như Girl Joy, Beyond the Line, Gánh Đồng Xuân,…
Bà tốt nghiệp Xuất sắc, Cử nhân ngành Quan hệ công chúng – Quảng cáo của Học viện Báo chí Tuyên truyền.
Bà. Nguyễn Thị Phương Anh(Cindy Nguyễn)
Trưởng Tư Vấn Đào Tạo
Với hơn 10 năm kinh nghiệm trong lĩnh vực Tư vấn và Đào tạo, Bà đã đồng hành cùng nhiều cá nhân và doanh nghiệp lớn trong hành trình phát triển con người & tổ chức.
Bà Phương Anh có hơn 4 năm Tư vấn nhân sự và Tư vấn tuyển dụng cho nhiều tổ chức lớn.
Bà cũng có nhiều năm kinh nghiệm trong lĩnh vực Kinh doanh, Chăm sóc khách hàng cho khối ngành Dịch vụ bao gồm F&B cho khách sạn lớn như New World, Duxton,…
Hiện Bà đang là Giảng viên thỉnh giảng Trường Đại Học Ngân hàng TP.HCM.
Bà. Nguyễn Thị Kim Nga
Trưởng Bộ Phận Tài Chính – Kế Toán
Gần 10 năm giữ vai trò Kế toán trưởng tại các hệ thống y tế uy tín như Victoria Healthcare, DHA, và Nova Healthcare.
Bên cạnh đó, bà cũng có hơn 7 năm gắn bó với ngành Bất động sản, từng làm việc tại các tập đoàn lớn như Bitexco Group và Vingroup.
Bà. Hồ Thị Minh Hằng
Nhà Sáng Lập, Giám Đốc Điều Hành
Trước khi chuyển sang lĩnh vực giáo dục, đào tạo, bà có gần 10 năm làm Product Manager cho Sony Việt Nam. Bà Hằng chính là người tham gia quan trọng vào quá trình chuyển đổi kinh doanh TV màn hình cong sang TV LCD đạt đúng thời điểm với mức chi phí và hàng tồn kho tối ưu tại thị trường Việt Nam. Sau đó bà phụ trách quản lý nhóm sản phẩm Personal Audio và đạt giải “Kinh Doanh Xuất Sắc Trong Khu Vực” do Phó Chủ Tịch Tập Đoàn Sony trao giải năm 2009;
Bà đã từng kinh qua các vị trí Giám đốc Kinh doanh và Phát triển Thương Hiệu cho nhiều tập đoàn như Sony Vietnam, CCM Pharmaceuticals, Trung Nguyên G7, Double Rich,…
Hiện nay bà giữ vị trí CEO của GEM Global và có gần 10 năm kinh nghiệm tư vấn đào tạo và phát triển con người cho nhiều tập đoàn, doanh nghiệp lớn tại Việt Nam.