سال 1993 را می توان شروع دوره جدیدي از تحقیقات در زمینه خلاصه سازي متن دانست . از سال 1993 به بعد تحقیقات حول چهار نگرش آماري ، مبتنی بر دانش، مبتنی بر فهم سطحی و نگرش ترکیبی توسط Salton و همکارانش بر اساس یک مدل انجام گرفته است . در سال 1994 فضاي برداري در بازیابی اطلاعات براي اندازه گیري میزان شباهت جمله ها و پیدا کردن جمله هاي مهم استفاده کردند [14]
سیستم خلاصهسازی خودکار متن، در سال 1969، علاوه بر مدل و روش فوق با استفاده از اضافهکردن کلمات کلیدی. استاندارد، تحولی را ایجاد کرد.[4] برای تعیین وزن جملات از 3 روش زیر هم استفاده کرده بود:
1- روش نشانه: این روش مبتنی بر ارتباط جملات و کلمات بود، به این صورت که وجود یا عدم وجود برخی از کلمات در جمله محاسبه می شد. (با استفاده از فرهنگ لغات نشانه) .
2- روش عنوان: در این روش وزن جمله براساس تمام کلماتی که در عنوان و زیر عنوان متن وجود داشت محاسبه میشد.
3- روش مکان: در این روش مکان هر جمله با یک بخش از متن بررسی میشد و احتمال ارتباط بین آنها مورد نظر قرار میگرفت.
نتایج نشان داد که استفاده از 3 روش فوق باعث شد که خلاصهسازی خودکار متن شباهت زیادی به خلاصهسازی انسان داشته باشد. در سال 1995، (Trainable Document Summarize TDS) بر اساس وزن اکتشافی استخراج جملات را انجام میداد. در این روش ویژگی های زیر مورد استفاده و بررسی قرار گرفت:
1- ویژگی طول جملهی برش خورده: جملاتی که حاوی تعداد کمتری از کلمات از پیش تعیین شده باشند در خلاصه گنجانده نشده باشند.
2- ویژگی عبارات ثابت: جملاتی که حاوی کلمات و عبارات معین نشانهدار باشند.
3- ویژگی پاراگراف: این روش اساسا مبتنی بر روش مکان است.
4- ویژگی کلمات موضوعی: شایعترین کلمات به عنوان کلمات موضوعی شناخته میشوند.
تابعی جملات را بررسی کرده و براساس تکرار کلمات موضوعی به آنان نمره میدهد.
5- ویژگی کلماتی که با حروف بزرگ نوشته شدهاند: این کلمات هم به عنوان کلمات موضوعی شناخته میشوند (البته با استثناءهای بدیهی).[4]
باید توجه داشت که در نظر گرفتن هر یک از این پارامترها می تواند در کیفیت خلاصه ایجاد شده تاثیرگذار باشد . براي مثال انتخاب پارامتر ي مثل"خوانایی"می تواند باعث کاهش شباهت جملات به هم در متن خلاصه شود . به همین منظور باید پارامترهایی انتخاب و در سیستم خلاصه ساز لحاظ شوند که خلاصه تولید شده بیشترین شباهت را با یک خلاصه انسانی داشته باشد